Portrait de Matthieu Bridoux, créateur de Mission Playwright

Matthieu Bridoux, dans le test depuis plus d’une décennie, combine une activité de testeur et une activité de formateur. Dans ce cadre, il a développé une plateforme d’entraînement à Playwright : Mission Playwright, qui propose désormais une large gamme d’exercices pratiques. Une initiative précieuse dans le monde du test francophone ! Matthieu a accepté de répondre à nos questions sur cette plateforme et sur sa pratique du test.

Les origines de Mission Playwright

Hightest : Qu’est-ce qui t’a donné envie de créer ces exercices Playwright en ligne ?

Matthieu Bridoux : Tout est parti d’un constat terrain : quand j’enseigne l’outil Playwright en formation, les apprenants manquent de terrain d’entraînement réaliste. Les exercices qu’on trouve en ligne sont souvent trop simples, trop statiques, ou pas du tout représentatifs de ce qu’on rencontre en mission. Je voulais un endroit où on puisse s’entraîner sur de vrais scénarios – des formulaires capricieux, des éléments dynamiques, des comportements asynchrones, bref, la vraie vie.

Il y a aussi un problème plus concret avec les sites d’entraînement existants : ils sont truffés de publicités. Et ce n’est pas qu’une question de confort visuel, ces pubs interfèrent directement avec les scripts d’automatisation. Un banner qui s’affiche au mauvais moment, une popup qui bloque l’interaction… et le test plante. Ce n’est pas ce qu’on veut faire vivre à quelqu’un qui apprend.

En parallèle, en tant que testeur en mission, je me retrouvais régulièrement dans une situation frustrante : je voulais tester rapidement une fonctionnalité précise de Playwright comme gérer un upload de fichier, simuler un drag and drop mais je n’avais pas d’application sous la main pour le faire. 

Donc j’avais besoin d’un bac à sable fiable, propre et ciblé où je peux aller directement sur l’exercice qui m’intéresse, valider mon approche, et une fois que la solution fonctionne, la réutiliser sereinement sur l’application de mon client si besoin.

Hightest : Comment as-tu procédé ?

Matthieu Bridoux : Honnêtement, j’aurais pu passer des semaines à construire ça de zéro. Mais j’ai fait un choix pragmatique : j’ai utilisé Lovable, un outil de génération d’interfaces par IA.

Ce qui m’a convaincu, c’est sa rapidité. En décrivant les comportements que je voulais, un champ qui apparaît sous condition, un tableau paginé, une modale avec délai, je pouvais avoir un composant fonctionnel en quelques minutes. Pour quelqu’un qui pense en cas de test plutôt qu’en composants React, c’est un game changer.

Mon workflow était simple : je réfléchissais d’abord au type de difficulté que je voulais entraîner chez l’automaticien, je le décrivais à Lovable, j’ajustais, et je passais à l’exercice suivant. La valeur que j’apporte, c’est la pédagogie et l’expertise métier, pas la technique.

Ce projet m’a aussi confirmé quelque chose : l’IA ne remplace pas le testeur, elle lui enlève les frictions pour qu’il se concentre sur ce qui compte vraiment.

Témoignage d’un apprentissage

Hightest : Peux-tu nous parler d’une mission qui t’a particulièrement marqué dans ton parcours de testeur ?

Matthieu Bridoux : La mission qui me vient immédiatement, c’est celle où j’ai mis les mains dans Playwright pour la toute première fois.

J’arrivais avec une vraie expérience en automatisation, mais plutôt sur des outils no-code notamment Cerberus. Donc j’avais les réflexes du testeur automaticien, la logique de couverture, la rigueur sur les parcours critiques… mais pas le code. Passer à Playwright, c’était changer de registre.

Ce qui est intéressant, c’est que je me suis formé en autonomie. Pas de formation officielle, pas de mentor désigné. Je me suis appuyé sur la doc, sur mes expérimentations, et surtout sur la communauté QA interne de mon client. Ces échanges informels avec d’autres automaticiens ont été précieux. C’est souvent là qu’on débloque les vrais problèmes, ceux que la doc ne couvre pas.

Au bout de trois mois, je me sentais vraiment à l’aise. Ce qui m’a confirmé ce sentiment, ce n’est pas tant d’avoir tout compris, c’est d’avoir développé le réflexe de débloquer rapidement. Dès qu’un problème surgissait, je savais où chercher, comment isoler, comment résoudre.

Et concrètement, les résultats étaient là :

  • Mes parcours critiques automatisés
  • Intégrés dans une CI/CD
  • Avec un rapport automatisé dans XRAY
  • Et des notifications Slack en temps réel

Cette mission m’a appris que la courbe d’apprentissage sur Playwright est raide au début, mais qu’elle s’aplatit vite si on est entouré et qu’on pratique vraiment. C’est d’ailleurs une des convictions qui m’a poussé à créer mon accompagnement sur Playwright.

L’IA dans tout ça ?

Hightest : Quelle est l’utilisation que tu fais de l’IA aujourd’hui, dans le cadre de tes missions de test, mais aussi dans ton quotidien de formateur ?

Matthieu Bridoux : Mon usage de l’IA est pragmatique et ancré dans le quotidien. Je l’utilise quand elle me fait vraiment gagner du temps.

En mission, je travaille actuellement sur des tests d’application mobile avec Appium. Et mon réflexe dès qu’une erreur apparaît en console, c’est de la soumettre directement à Claude IA. Plutôt que de passer de longues minutes à éplucher la doc ou chercher sur Stack Overflow, j’obtiens une explication contextualisée et des pistes de correction rapidement. L’important pour moi, c’est de comprendre pourquoi ça plante, pas juste corriger en aveugle.

Côté Playwright, j’ai réalisé un POC autour des agents IA où plusieurs agents collaborent : l’un rédige les cas de test, un autre génère les scripts, un autre les corrige. C’est encore expérimental, mais les résultats sont prometteurs. La vraie question maintenant c’est de valider ça sur un projet concret avec toute sa complexité. J’ai aussi Claude Code dans ma liste de choses à tester prochainement, ça m’intéresse particulièrement pour voir ce que ça donne sur des projets d’automatisation bout en bout.

Au quotidien dans mon éditeur, j’utilise GitHub Copilot sur VS Code. L’autocomplétion change vraiment le rythme d’écriture, on code plus vite, et ça réduit la charge mentale sur les parties répétitives.

Ce que je retiens de tout ça : l’IA est un accélérateur. L’expertise du testeur reste indispensable pour poser les bonnes questions et valider ce qui est produit.

Prise de hauteur

Hightest : Comment dirais-tu que le monde du test a évolué depuis que as débuté ta carrière ?

Matthieu Bridoux : Avec 12 ans dans le métier, j’ai une perspective assez large sur ce chemin parcouru et honnêtement, l’évolution est massive.

Quand j’ai commencé, mon quotidien c’était HP ALM : on rédigeait des cas de test, on les exécutait manuellement, on remontait les anomalies. C’était rigoureux, structuré, mais lent. Et surtout, l’automatisation était encore un sujet de niche, on en parlait peu et peu d’équipes la pratiquaient vraiment, et la CI/CD c’était presque de la science-fiction pour la plupart des projets.

Aujourd’hui, c’est un autre monde. L’automatisation est devenue une attente de base sur la plupart des missions. La CI/CD est partout. Les testeurs doivent comprendre les pipelines, savoir intégrer leurs tests dans un workflow DevOps, lire du code. Le profil du testeur a profondément changé — on est passé d’un métier de vérification à un métier de qualité intégrée dans le delivery.

Et maintenant on voit arriver l’IA par-dessus tout ça. Une nouvelle couche de transformation qui s’accélère encore.

Ce qui me frappe le plus, c’est que le fond du métier reste le même — comprendre le risque, protéger l’utilisateur, poser les bonnes questions. Mais les outils et les compétences attendues ont été complètement redéfinis. C’est ce qui rend ce métier stimulant : il ne se fige jamais.

____________________

Merci à Matthieu Bridoux d’avoir répondu à nos questions ! Si vous souhaitez vous entraîner, rendez-vous donc sur Mission Playwright.

Solutions du jeu d’immersion

Il y a quelques mois, nous vous avons proposé un jeu d’immersion pour jongler avec les concepts du syllabus ISTQB CTAL TM. Le suspense a assez duré, voici les réponses aux questions ! 🙂

Comme prévu, nous avons également cité vos meilleures réponses.

À la lecture de ces mails, parmi les 7 activités qui constituent le processus de test standard, auxquelles avez-vous la certitude d’avoir participé dernièrement ?

Rappelons d’abord ce que sont ces 7 activités :

  • Planification des tests
  • Pilotage et contrôle des tests
  • Analyse de test
  • Conception des tests
  • Implémentation des tests
  • Exécution des tests
  • Activités de clôture des tests

Les mails permettent d’identifier 4 de ces activités :

Planification des tests

Le plan de test de Servmanyax est évoqué plusieurs fois.

Pilotage et contrôle des tests

Le décalage de la mise en production de Wafwaf est acté suite aux « éléments fournis lors de la dernière sprint review ». Cette mesure correspond à une action corrective, typique du contrôle des tests.

Implémentation des tests

L’automatisation des tests sur l’appli Wafwaf est évoquée.

Activités de clôture des tests

La rétrospective évoquée par Anna Drénalin fait partie des activités de clôture des tests.

Considérez-vous que le plan de test de l’application Servmanyax est validé ? Pourquoi ?

“Le plan de test doit être accepté par toutes les parties prenantes et, par conséquent, les désaccords entre elles doivent être résolus.”

La DSI Jessica Scroute, absente, n’a pas lu le plan de test.

Le DSI adjoint Sam Eum, absent également, approuve le plan de test mais ne l’a pas lu non plus.

Il n’est donc pas validé.

Vos réponses

Une personne anonyme commente élégamment l’attitude de Sam Eum : « On appelle ça du management par tampon encreur » !

Quel est le SDLC du projet Servmanyax ?

Comme l’a dit une personne anonyme, « hybride ou pseudo-agile presque« .

En effet ! Le vocabulaire agile parsème les mails de l’organisation, pourtant certaines pratiques témoignent d’une culture plus traditionnelle. En témoigne le mail de Jacques Antan : « On me met un peu la pression pour avoir des chiffres précis des coûts par fonctionnalité, en amont du lancement. »

Nous vous renvoyons au syllabus CTAL-TM, qui aborde les SDLC hybrides.

Suivant les bons conseils de votre collègue Yves, vous décidez d’organiser un atelier d’identification des risques. Qui serait-il pertinent de consulter pour l’identification et l’analyse des risques, et pourquoi ?

  • Farah Antastique, CEO – Si possible. Le contexte ne permet pas de savoir si elle participe à ce genre de réunion. Dans le doute, l’inviter serait une bonne idée.
  • Jessica Scroute, DSI – Elle a été sollicitée sur la relecture du plan de test, c’est donc normal qu’elle participe à cet atelier
  • Sam Eum, DSI adjoint – Idem
  • Charles Apricorne, RSSI – Cette partie prenante est susceptible d’apporter un éclairage unique sur sa spécialité, la sécurité informatique
  • Jacques Antan, chef de projet et Product Owner ParapluY et Servmanyax – Cette partie prenante est incontournable pour le projet
  • John Okari, administrateur système – Impliquer cette partie prenante est essentiel pour anticiper les risques liés à la mise en production (et limiter les frictions historiques)
  • Léonard Ampion, responsable du pôle UX – Cette partie prenante sera impliquée sur le projet, notamment pour les enjeux liés à l’accessibilité
  • Yves Olanda, QA – Pour apporter un regard complémentaire sur les risques qualité
  • Giani Ustatif, fondateur et gérant du restaurant Le Tofu fou (peut être remplacé par Marion) – En tant que client final
  • Marion Outarde, directrice du restaurant Le Tofu fou (peut être remplacée par Giani) – En tant que cliente finale

Quels sont les risques PROJET que vous anticipez d’ores et déjà ?

Nous avions listé celles-ci :

  • Absence ou indisponibilité de parties prenantes clés (cf Jessica, mais aussi Sam qu’il a fallu relancer pour la relecture du plan de test)
  • Risque de changement d’exigences ou d’objectifs stratégiques (cf Sam et les changements d’avis concernant l’accessibilité)
  • Risque lié au manque de préparation ou de clarté dans le plan de test (cf remarques de Yves)
  • Risque de surcharge ou de pression sur les ressources (cf Jacques Antan)
  • Risque de communication insuffisante ou tardive (cf en interne cf John Okari, et en externe Giani Ustatif)
  • Résistance au changement par le personnel, car le personnel du restaurant n’est pas impliqué !
  • Relations tendues entre équipes (cf John Okari)
  • Flou autour du SDLC (discours très orienté agile alors que dans les faits, on est plutôt sur de l’hybride non assumé)

Vos réponses

D’autres risques ont été relevés en complément :

  • « Grégoire est parti. 5 ans d’expérience envolés et visiblement pas de passation. La connaissance elle est partie avec lui. »
  • Le fait que le PO de Servmanyax soit aussi PO d’un autre produit pourrait nuire à sa disponibilité sur le projet.

Quels sont les risques PRODUIT que vous anticipez d’ores et déjà ?

Voici ceux que nous avions listés. Notez que les risques produit comprennent des risques fonctionnels et non fonctionnels.

  • Réservation en double du même shift
  • Portabilité insuffisante (affichage imparfaitement géré en fonction de la taille de l’écran)
  • Accessibilité insuffisante
  • Fuite de données personnelles via la messagerie
  • Accès non autorisé au tableau de bord
  • Indicateurs incorrects dans le tableau de bord
  • Perte de performance des équipes ou abandon de l’outil en raison d’un temps de chargement trop élevé
  • Faible engagement du personnel à cause de la complexité des fonctionnalités
  • Produit non conforme aux valeurs du personnel
  • Non-respect des règles RGPD
  • Non-respect du droit du travail

Vos réponses

D’autres risques ont été identifiés (toujours en anonyme) :

  • « La gamification avec les points convertibles en bons cadeaux. Ça sent le calcul foireux et la faille d’exploitation à plein nez. »
  • « La marque blanche. Chaque resto va vouloir sa customisation. Faut anticiper les régressions à chaque variante. »
  • « Et la gestion des shifts avec pré-réservation et validation manager. Si deux serveurs réservent le même créneau et que le système gère mal le conflit, c’est la cata côté utilisateur. »

L’organisation où vous travaillez semble souffrir de nombreux défauts. Toutefois, quels sont les points forts que vous lui trouvez ?

Effectivement, Tekmanyax n’est pas l’entreprise modèle, ni pour le test, ni pour la méthode agile, ni pour l’organisation de manière générale ! En revanche, voici quelques points sur lesquels que nous avions noté et que vous pourriez capitaliser si vous y travailliez :

  • L’entreprise s’intéresse activement aux tests non fonctionnels
    • Sécurité (embauche de RSSI)
    • Utilisabilité (stratégie d’accessibilité)
  • Des compétences en test sont déjà présentes (cf Yves Olanda)
  • Plusieurs mails montrent une bonne volonté, une disponibilité et une collaboration active :
    • Yves (QA) est un bon soutien.
    • Le RSSI est disponible et ouvert à la discussion
    • Un service communication existe, qui pourrait éventuellement être mobilisé pour passer des informations sur les tests.
    • Les remerciements et les encouragements sont fréquents, même s’il existe par ailleurs des conflits.

Vos réponses

D’autres points ont été soulevés en complément, en anonyme encore :

  • L’implication du Tofu Fou, même si elle pourrait être améliorée
  • “Y’a des vraies rétros, des sprint reviews, du feedback client. Anna ramène des muffins au daily. C’est con mais ça compte.”
  • “Y’a de la transversalité. Le QA bosse avec les devs, le PO, le client. C’est pas chacun dans son couloir…”
  • “L’accessibilité est une priorité affichée. C’est pas encore clair sur le niveau WCAG mais au moins c’est sur la table. Y’a un stagiaire UX dédié et un responsable identifié.”

« Les noms des collabs » a aussi été noté comme un atout, nous vous remercions pour cette appréciation de notre humour 😋

Quel facteur d’hygiène favoriserait la stabilité de l’équipe de test ?

Une rémunération convenable (c’est la frustration de Grégoire Ateau à ce sujet qui provoque son départ).

Vos réponses

Alexandrine rappelle : « L’absence de ces facteurs ne motive pas… mais leur présence évite la démotivation et le turnover ».

Que pensez-vous de la proposition de Grégoire en ce qui concerne l’outil d’accessibilité dont il parle ?

Un rappel de ce que dit Grégoire :

J’ai entendu dire qu’on allait enfin s’attaquer à la question de l’accessibilité. C’est une bonne nouvelle et je pense que ce serait bien qu’on utilise l’outil Accessilly. C’est vraiment pas une grosse dépense par rapport à ce que ça va nous apporter. La licence n’est pas chère du tout (100 € par an), et puis on peut tout installer sur notre SI, donc on serait autonomes pour gérer l’appli. Qu’est-ce que t’en penses ? T’en parles à Samuel à l’occasion ?

Grégoire n’évoque à aucun moment les exigences de l’organisation en termes d’outillage d’accessibilité. À ce stade, ces exigences sont d’ailleurs encore en chantier.

De plus, il a une vision très restreinte des coûts qu’implique un outil. La licence est une chose, les coûts de maintenance et de formation (notamment) en est une autre. Il y a également d’autres coûts initiaux à prendre en compte ; en effet, si le logiciel doit être intégré dans le SI, cela nécessite de faire intervenir l’équipe d’exploitation, ce qui n’est pas anodin. Demandez son avis à Jacques Okari !

Vos réponses

Se pose aussi, bien sûr, la question de la gouvernance.

Une personne commente en anonyme : « Grégoire est parti. Donc qui va installer, configurer, maintenir l’outil ? Qui a la compétence ? Lucas le stagiaire ? Léonard le responsable UX ? »

La conclusion d’Yves est-elle correcte au sujet de la maintenance des tests Dynoz ? Si oui, expliquez-la ; si non, expliquez pourquoi.

Voici un rappel de la problématique exposée par Yves :

Pour la maintenance des tests auto de l’appli Dynoz, ça risque d’être vraiment coûteux. Au vu des fois précédentes, je chiffre ça à 100 jours de travail. On comptait déléguer ça à la boîte de prestation habituelle à 500 € / jour, je te laisse faire le calcul… Les scripts de test ont tous été développés par cette boîte avec leur outil open-source qu’on ne connaît pas du tout, dans leur syntaxe zarbi qu’on ne connaît pas du tout non plus, mais je pense que ça vaudrait le coup (et le coût…) de monter en compétences dessus histoire d’être autonomes et de ne pas se ruiner. T’en parles à Samuel ?

Quelques jours plus tard, Yves revient, triomphal :

Ok, j’ai la réponse de la boîte de prestation au sujet de Dynoz. La formation à l’outil et au projet d’automatisation durerait 10 jours, toujours à 500 € la journée. On pourrait demander une formation pour toute l’équipe de test, donc 10 personnes (et pas pour Grégoire d’après ce que j’ai cru comprendre…) Autant te dire que pour 10 fois moins cher, on devient capables de maintenir les tests de Dynoz ! Super non ? Tiens, si tu veux des chiffres, je me souviens de comment on calcule le ROI.
(Bénéfices – Coûts récurrents) / Coût initial * 100
Soit : (50 000 – 0) / 5 000 * 100 = un ROI de 1 000 % !!!
Yves Olanda, QA
PS : Bon, pour être réaliste je pense que vu la complexité de la chose, même après une formation on ne pourra pas bosser aussi rapidement que la boîte de presta, en tous cas pas dès le début. Ce que la boîte fait en 2 jours, on le fera probablement en 3. Mais bon, c’est déjà top !

1000 % de ROI je te dis !

Aïe aïe aïe ! Bien sûr que c’était trop beau pour être vrai, et plus de la moitié d’entre vous ont bien flairé le piège.

Le coût de formation fournie par la société de prestation est bel et bien 10 fois inférieur au coût de la prestation. Toutefois, cette analyse est superficielle et doit être complétée.

2 éléments majeurs sont omis par Yves :

  • Les coûts d’opportunité : pendant que l’équipe de test sera formée et maintiendra ces automates, elle ne pourra rien faire d’autre. Ce sont 150 jours-personne internes qui seront ainsi bloqués pour la maintenance, et 100 jours-personne (10 jours pour 10 personnes) qui seront bloqués pour la formation, soit 250 jours qui seront consacrés à ce sujet, et pas à autre chose.
    (150 jours sont prévus pour la maintenance et non 100, car 2 jours pour la société de prestation aguerrie = 3 jours pour le personnel interne selon l’estimation d’Yves)
  • Le personnel interne a aussi un coût. Il faut mettre en balance les 500 € / jour-personne de la société de prestation, non pas avec une somme de 0 € / jour-personne pour les internes, mais comme l’indique Jacques dans son mail, plutôt 200 €.

Le coût de la prestation est donc de 50 000 €, mais si la formation et la maintenance en interne était choisie à la place, cela pourrait tout de même coûter… 55 000 € !

Ce nombre est calculé ainsi :

  • 25 000 € de coût initial
    • 5000 € de coût de formation, fournie par la société de prestation
    • 10 jours * 10 personnes * 200 € pour la main d’œuvre interne en formation : 20 000 €
  • 30 000 € de coût récurrent
    • 150 jours * 200 € par personne pour la maintenance = 30 000 €

Selon ce calcul plus réaliste, le ROI de l’internalisation des 100 jours de test est le suivant :

(Bénéfices – Coûts récurrents) / Coût initial * 100

(50 000 – 30 000) / 25 000 * 100, soit… 80 %, bien inférieur aux 1 000 % estimés par Yves.

80 % de ROI, ce n’est bien sûr pas mauvais. Toutefois, choisir ce scénario demanderait tout de même une analyse approfondie.

Facteurs favorables Facteurs défavorables
L’appli Dynoz va avoir régulièrement besoin de maintenance L’appli Dynoz risque d’être décommissionnée à moyen terme.
Le personnel interne a exprimé son souhait d’être formé sur cette technologie (facteur de motivation) Le personnel interne considère dans sa majorité que Dynoz et tout son environnement technique sont vieillissants et peu enthousiasmants. On sait déjà que c’est un outil avec une « syntaxe zarbi », propre à cette société de prestation. Prudence…
Les décisionnaires déplorent les délais de mobilisation de la société de prestation ; bien souvent, il faut attendre plusieurs semaines avant qu’elle soit disponible Le personnel interne, même s’il est formé, n’aura pas suffisamment de temps à consacrer à Dynoz. Dans sa majorité, il apprécie de pouvoir s’appuyer sur des compétences externes qui permettent d’alléger sa charge de travail.
Les équipes internes connaissent bien le périmètre fonctionnel de Dynoz. Les équipes internes ne connaissent pas du tout le périmètre fonctionnel de Dynoz, et la documentation est à ce jour lacunaire. Des coûts supplémentaires en transfert de connaissances et en documentation seraient nécessaires.
Les équipes de test sont relativement stables dans le temps et partagent efficacement les connaissances. Les personnes restent en moyenne 2 ou 3 ans dans l’entreprise, ce qui nécessiterait d’autres formations régulièrement.

Vos réponses

Une personne anonyme suppose qu’Yves n’a pas bien compris les modalités des coûts de formation : « La formation c’est 10 jours à 500 euros par jour pour 10 personnes. 10 x 500 x 10 ça fait 50 000 euros, pas 5 000. Il a oublié un zéro quelque part. » Il est possible en effet qu’Yves ait mal compris la réponse de la société de prestation, à la faveur sans doute d’un biais de confirmation !

_____________________________

Merci à toutes les personnes qui ont participé au jeu ! Souhaitez-vous qu’on en prépare un autre sur une thématique différente ?

Arrêter d’apprendre dans le vide grâce au PKM

Dans cet article, nous allons partager quelques connaissances sur… justement, la gestion des connaissances ! En mettant le focus, non pas sur sa forme organisationnelle, mais sur les savoirs que l’on accumule au cours d’une carrière dans le test logiciel, et qui sont propres à chaque individu.

Bonne lecture !

Qu’est-ce que le PKM… et est-ce que ça vous concerne ?

Vous en avez déjà fait sans le savoir

PKM est l’acronyme de Personal Knowledge Management, en bon français la gestion des connaissances personnelles. Le PKM invite à développer, pour soi-même, des méthodes et des outils pour consigner, organiser puis retrouver ce qu’on apprend, de façon à ce que ces connaissances restent utiles sur le long terme.

Du PKM, tout le monde en a déjà fait, ne serait-ce que pendant ses études. Structure ses connaissances sous forme de fiches, de mindmaps, de listes de vocabulaire… autant d’habitudes prises à l’époque parce que les examens nous y contraignaient. Parfois même, on a peut-être expérimenté des méthodes différentes pour voir lesquelles seraient les plus efficaces pour ancrer les connaissances (avez-vous déjà testé de créer un palais mental ?).

Une compétence à réactiver

En revanche, une fois en poste, ces habitudes et cette discipline ont tendance à s’effriter, à devenir moins systématiques. On prend des notes pendant les réunions, on ajoute des marque-page dans son navigateur, mais il n’y a pas toujours de structure d’ensemble. On en ressent tout simplement moins le besoin, car les enjeux ne sont plus les mêmes. Le quotidien professionnel et les priorités opérationnelles prennent le dessus ; on se retrouve à apprendre « en passant », sans vraiment capitaliser sur ce qu’on découvre.

En outre, les documentations que l’on crée dans le cadre de sa carrière sont la plupart du temps à destination de notre organisation. Elles ne sont pas taillées sur mesure pour notre propre usage.

C’est grave, docteur ?

Pas forcément, mais on court alors le risque de perdre une somme importante de connaissances au fil du temps, et a fortiori en changeant d’organisation.

Pourquoi le PKM est particulièrement pertinent dans le test logiciel

Au fil d’une carrière dans le test logiciel, énormément d’informations sont mobilisées, et de natures bien différentes.

On peut en citer quelques unes :

  • Les connaissances socle du monde du test
  • Les processus métier spécifiques
  • Les jargons spécialisés, les acronymes
  • Les outils
  • Les syntaxes de différents langages et frameworks
  • Et tant d’autres !

Risque 1 : l’oubli

Si on ne fait pas d’effort, on oublie au fur et à mesure ce qu’on a appris, et on peut finir par douter : avons-nous construit une véritable expertise, ou simplement accumulé une ancienneté ? Le syndrome de l’imposteur, que connaissent bien souvent les juniors (surtout suite à une reconversion) peut repointer le bout de son nez au bout de quelques années. Double effet Kiss Cool !

Risque 2 : la dispersion

À la longue, également, on peut se retrouver avec une impression d’être un bocal rempli d’informations disparates, se dire que tous ces éléments n’ont guère à voir les uns avec les autres, ou encore qu’ils sont trop spécifiques à un contexte, en ayant du mal à prendre de la hauteur sur la valeur de ces connaissances.

Le PKM est là pour répondre à ces problématiques. Ces dernières années, des outils numériques spécialisés se sont développés et démocratisés, qui permettent de mettre en œuvre cette pratique de manière à la fois simple et approfondie.

Un outil de PKM : Obsidian

Obsidian est un outil de PKM (gratuit) qui rappelle les wikis dans son fonctionnement. On peut y prendre des notes et lier ces notes entre elles. Un terme qui revient souvent : ces notes gagnent à être « atomiques » : une note = un concept. Ainsi, plutôt que d’avoir un long document qu’on n’aura jamais le courage de relire en entier, on dispose de nombreuses petites notes rapides à manipuler. On les relie ensuite entre elles pour former comme une toile de connaissances.

Les notes Obsidian sont au format markdown, et sont stockées directement en local.

Une fonctionnalité d’Obsidian ne manquera pas de vous plaire : la vue graphique. Elle vous permet de visualiser, en un coup d’œil, toutes les connaissances que vous avez consignées. Vous pouvez ainsi, en survolant les points, regarder les relations entre vos savoirs.

Un exemple ?

Voici une note Obsidian résumant un article scientifique. Elle comporte plusieurs liens qui permettent de retrouver facilement certaines notions, et permettent aussi en un clic de retrouver tous les autres articles scientifiques sur la qualité logicielle qui ont été enregistrés dans cette instance Obsidian.

Nos conseils pour démarrer

  1. … Démarrer ! Nul besoin de mettre en place une stratégie en amont, le mieux c’est de commencer à prendre des notes et de les organiser au fur et à mesure.
  2. Éviter les gros copier-coller. C’est exactement ce qui pourrait vous décourager de vous y mettre, surtout si vous disposez de peu de temps.
  3. Prendre le réflexe d’ouvrir Obsidian dès que vous vous dites « Ça, je n’ai pas envie de l’oublier ».
  4. De temps en temps, ouvrir Obsidian et reparcourir vos notes, en créant des liens entre elles si vous en trouvez !
  5. Se sentir libre de mélanger des notes « professionnelles » avec des notes plus personnelles (sur vos hobbies par exemple). Vous n’avez qu’un seul cerveau ; vos connaissances sont toutes interconnectées. Dans le graphe ci-dessus, il y a aussi bien des recettes de cuisine afghane que des outils de cybersécurité, des notions de finances publiques, de psychologie et d’histoire !

Petit à petit, vous verrez que vous retenez davantage de choses, et que vos connaissances se pérennisent.

Nous espérons que cet article vous aura donné envie d’explorer le PKM ! Qui sait, peut-être mettrez-vous le lien de cet article sur une de vos notes Obsidian (ou autre outil de votre choix)…

Article FALC – Notre métier

FALC : Facile À Lire et à Comprendre

__________________________________________________

Bonjour,

Nous travaillons dans une entreprise calédonienne.

Une entreprise,
c’est un lieu pour travailler.

Nous allons vous parler de notre travail.

Notre travail, c’est d’aider à créer de bons sites web.

Un site web, c’est un site internet.

 

 

Il existe beaucoup de sites web :

  • Des sites web pour apprendre des choses.
  • Des sites web pour acheter des choses.
  • Des sites web pour s’amuser.

 

Parfois, les sites web ont des problèmes.

Par exemple :

  • On clique sur un bouton et rien ne se passe.
  • Le site web s’arrête de fonctionner.
  • Le site web affiche de mauvaises informations.

Ces problèmes empêchent les gens
d’utiliser le site web comme ils le veulent.

Les gens se sentent perdus ou en colère.

Ils décident d’arrêter d’utiliser le site web.

C’est dommage.

Créer un site web demande beaucoup de travail.

Parfois, un seul problème gâche tout.

 

 

Dans notre travail :

Nous utilisons les sites web
avant tout le monde.

Nous cherchons tous les problèmes.

Nous trouvons aussi des solutions
pour que les problèmes n’arrivent plus.

Quand nous trouvons un problème,
nous le disons aux personnes
qui ont créé le site web.

Les personnes qui ont créé le site web
corrigent le problème.

Quand les problèmes sont réglés,
le site web peut être partagé avec tout le monde.

Parfois, il reste quelques petits problèmes.

Le site web est quand même partagé.

Les petits problèmes seront corrigés plus tard.

 

 

Le plus important :

Corriger d’abord
les problèmes importants.

C’est un travail que nous apprécions.

Nous apprenons beaucoup de choses.

Nous discutons avec beaucoup de personnes pour comprendre
ce que le site web doit faire pour les aider.

Nous aimons aussi regarder
comment le site web est fabriqué.

Un site web, c’est comme une voiture
avec un moteur pour le faire fonctionner.

On teste aussi des applications mobiles
ou d’autres logiciels.

 

Nous aimerions savoir ce que vous en pensez.

Est-ce que notre travail vous semble intéressant ?

Est-ce que vous utilisez souvent des sites web ?

Quels sont vos sites web préférés ?

Accessibilité numérique en Nouvelle-Calédonie : entretien avec le Collectif Handicaps

L’accessibilité est un critère non-fonctionnel très important à prendre en compte quand on crée un service numérique. Au-delà de l’aspect éthique indispensable de la démarche, l’accessibilité est de plus en plus encadrée par la règlementation, et les pénalités peuvent être lourdes. Chez Hightest, nous recherchons au maximum à sensibiliser notre écosystème à cet enjeu, ce qui a conduit notamment à réaliser un audit sollicité par le cluster OPEN NC en 2024.
Aujourd’hui, nous avons la chance de rencontrer Ugo Klinghofer, responsable du Collectif Handicaps Nouvelle-Calédonie, qui va pouvoir nous donner des informations de première main sur l’accessibilité numérique sur le territoire.

Présentation du Collectif Handicaps

Hightest : Bonjour Ugo ! Peux-tu nous parler du Collectif Handicaps Nouvelle-Calédonie et de ses actions sur le territoire calédonien ?
Ugo Klinghofer : Le Collectif Handicaps est une association de loi 1901 créée en 2004. Elle regroupe une trentaine d’associations du secteur et membres individuels.
Ces missions sont :
– D’être un interlocuteur privilégié au niveau institutionnel en portant la voix des associations.
– D’impulser une dynamique et des réflexions en matière de politiques publiques du handicap en participant au cadre réglementaire.
– De sensibiliser les acteurs publics et privés à toutes questions relatives au handicap et de promouvoir des actions et projets favorisant l’inclusion des personnes en situation de handicaps sur le territoire.

Comment le Collectif Handicaps promeut l’accessibilité numérique

H : Quelles sont les actions menées par le Collectif pour promouvoir l’accessibilité numérique ?
U : En 2024, le Collectif Handicaps a participé avec le gouvernement et les différents acteurs du numérique a tracé la feuille de route du territoire sur l’inclusion numérique. Il était important que les personnes en situation de handicap soient prises en compte dans les politiques publiques d’accessibilité au numérique dont elles sont souvent les « grands oubliés ».
Le Collectif Handicap milite également pour rendre l’accès à internet et aux outils numériques accessibles financièrement, il a échangé à ce sujet de nombreuses fois avec l’OPT.
Tout récemment le Collectif a développé un projet de recensement des lieux de loisirs et de tourisme accessibles sur le territoire. Il a donc collaboré avec Glorytech et leur application mobile Grall pour répertorier l’ensemble de ces sites.
 En 2026, le Collectif, en partenariat avec le cluster OPEN NC, met en place via le projet Numé-Rai de nombreux ateliers numériques sur des thématiques diverses comme l’intelligence artificielle, la cybersécurité, le numérique au service de l’insertion professionnelle à destination des personnes en situation de handicap. Aussi, le Collectif reste vigilant à toute initiative en matière de numérique afin d’amener son concours pour le développement de projet, c’est actuellement le cas avec un fournisseur d’accès internet local. Enfin, le Collectif Handicaps siège au sein de la commission numérique inclusive et durable mise en place par le cluster OPEN NC.

Le retour d’Ugo sur l’audit de 2024

H : En 2024, nous avons réalisé un scan d’accessibilité avec l’outil WAVE sur ~2000 sites web calédoniens. 99 % d’entre eux présentaient au moins 1 alerte, 91 % au moins une erreur. 88 % présentaient au moins un problème de contraste, ce qui est l’erreur la plus commune d’accessibilité. Que penses-tu de ce constat ?
U : Ces résultats sont édifiants et démontrent qu’il reste encore beaucoup d’efforts à fournir en matière d’accessibilité numérique. Je note tout de même que des progrès sont réalisés en ce sens afin de réduire la fracture numérique par une meilleure accessibilité.

Construire un site web accessible : l’expérience et les conseils du Collectif Handicaps

H : Votre site web est entièrement pensé pour l’accessibilité. Il permet d’adapter le contenu à volonté : police pour faciliter la lecture aux personnes dyslexiques, augmentation de l’interlignage, changement des couleurs et de la taille du texte, version FALC (Facile À Lire et à Comprendre). Comment s’est déroulée la création du site web ? Comment l’avez-vous testé ? Quelles ont été les problématiques ou questions d’accessibilité les plus difficiles à adresser ?
U : Le site Web a subi une refonte en 2021 par une société calédonienne avec la création et l’intégration des outils d’accessibilité.
A ma connaissance, il n’y a pas eu de phase de test mais des remontées de terrain des usagers ont permis d’apporter des améliorations dans la lisibilité des différents onglets.
H : Au-delà de la bonne application des standards (WCAG, RGAA…), il est en effet important de faire tester ses applicatifs par des personnes en situation de handicap. Comment prendre contact avec elles, mais aussi et surtout, comment les rétribuer au plus juste pour ce travail de validation ?
U : Pour tout contact avec les associations membres du Collectif, vous pouvez joindre le Collectif Handicaps ou vous procurer l’handicap mag qui répertorie l’ensemble des acteurs du handicap en Nouvelle-Calédonie. Il est possible d’organiser une session de test avec une association au sein des locaux du Collectif si cela est nécessaire. Le Collectif peut agir comme un facilitateur dans la mise en réseau en fonction des envies et/ou besoins des uns et des autres. Pour remercier la participation, on peut imaginer un accès prioritaire au service ou une gratuité en fonction de la prestation proposée. Toutes autres formes de partenariat ou de soutien sont envisageables.
H : As-tu un conseil à donner à une organisation qui souhaiterait rendre ses services plus accessibles ?
U : Je ne peux qu’encourager ce type d’initiatives, bien souvent cela peut bénéficier à un public plus large que celui qu’on pense toucher au départ. Lorsque qu’on améliore l’accessibilité des trottoirs ou des routes, cela bénéficie aux personnes en fauteuil roulant, ou aux personnes malvoyantes mais aussi aux familles avec des poussettes ou encore aux cyclistes etc… Il en va de même pour tous types d’accessibilité et cela contribue à construire une société connectée avec l’ensemble de ses composantes.

Synergies entre le Collectif Handicaps et le Pacifique

H : Le site du Collectif Handicaps Nouvelle-Calédonie mentionne qu’il a été créé avec le soutien du consulat de Nouvelle-Zélande en Nouvelle-Calédonie. Y a-t-il des synergies entre votre action implantée sur le territoire calédonien, et d’autres zones géographiques ?
U : Le Collectif Handicaps essaie de développer des synergies régionales afin dans un premier temps de comprendre la manière dont les autres pays de la région traitent la question du handicap dans leurs sociétés afin de voir ce qui fonctionne et de s’en inspirer et voir ce qui ne fonctionne pas. A ce sujet, nous sommes membres depuis 2016 du PDF (Pacific Disability Forum) qui est une ONG basée à Suva, Fidji.
Nous aimerions aussi nous associer à Wallis et Futuna avec lequel nous avons des contacts mais souhaiterions développer plus de partenariats car les liens entre nos deux îles sont évidents.
En local, nous avons de bonnes relations avec le consulat d’Australie pour qui les questions d’inclusions sont importantes.
__________________________
Merci à Ugo pour ses réponses, nous espérons qu’elles vous inviteront à inviter davantage l’accessibilité dans vos projets.
Dans les prochains jours, nous publierons un article en langage FALC (Facile À Lire et à Comprendre), préconisé pour s’adresser aux personnes en situation de handicap mental, ou à toute personne ayant des difficultés de compréhension. Cet article a été relu et amélioré par Ugo, merci encore à lui.

ISTQB : saurez-vous résoudre ce jeu d’immersion inédit ?

Introduction

Nous vous proposons une expérience interactive inédite ! 🤩

Voici un jeu dont vous serez l’illustre détective…

En 2024, l’ISTQB a publié une nouvelle version du syllabus sur le management des tests. Un document très riche en ressources, et dont les questions d’examen sont assez exigeantes. D’une durée de deux heures (contre une heure pour les examens de niveau Fondation et Spécialiste), l’examen propose des questions à 1, 2 ou 3 points.

La longueur des questions est parfois intimidante. De notre côté, nous les trouvons particulièrement bien faites : bien souvent, « trop » d’informations sont données, et il faut faire le tri pour trouver l’indice véritablement pertinent. Et ça, c’est tout à fait représentatif d’un quotidien de test manager !

Il y a quelques mois, nous vous proposions un QCM pour réviser les notions du syllabus ISTQB CTAL-TM (Certified Tester Advanced Level – Test Management). Ce genre de format de révision est pratique pour revoir rapidement les concepts. Toutefois, ces questions de révision ne donnent qu’un nombre assez limités d’informations sur le contexte, et ne ressemblent pas vraiment aux longues questions qu’on peut trouver lors de l’examen.

Pour compléter cette ressource, nous vous proposons donc aujourd’hui un jeu d’immersion !

Cette immersion se présente comme une boîte de réception fictive, dans laquelle vous trouverez des mails contenant des informations dispersées, utiles pour répondre aux questions.

Les réponses sont disponibles ici.

Et maintenant, place au jeu !

Contexte

Vous êtes test manager au sein de la société Tekmanyax. Hier soir, pendant votre promenade, vous avez senti une fleur mystérieuse. Son odeur capiteuse a troublé votre esprit, et vous avez perdu une bonne partie de vos souvenirs. Votre médecin traitant vous assure que les effets vont se dissiper en 24 heures. Elle vous recommande de poser un arrêt de travail, mais vous avez l’intuition qu’on va avoir particulièrement besoin de vous aujourd’hui, et que vous allez très bien vous en sortir même avec ces troubles de la mémoire. Vous vous dites même que ce serait l’occasion de porter un regard nouveau sur votre quotidien !

Vous arrivez au travail sans rien dire à personne au sujet de votre amnésie. Heureusement, vous avez toujours votre boîte de réception pour vous fournir des informations précieuses, et vous savez que le syllabus ISTQB CTAL-TM vous donnera les bonnes clés pour avancer dans la compréhension de votre contexte…

Pour découvrir la boîte de réception, 💌 cliquez ici !

À vos réponses ! Nous avons hâte de les lire 😀

Faux positifs, faux négatifs… 2 méthodes pour ne plus jamais les confondre

Il est courant de confondre les notions de faux positifs, faux négatifs, vrais positifs et vrais négatifs.

Dans cet article, nous proposons quelques astuces pour bien s’en souvenir. Ces notions ne sont pas seulement utiles lors d’un examen ISTQB, mais aussi dans son quotidien de QA !

Positif ou négatif ?

Concentrons-nous d’abord sur la première partie de l’expression.

Un test positif, c’est un test qui déclare qu’il a trouvé quelque chose. Un test de grossesse positif déclare “Il y a un embryon”. Un test PCR positif déclare “Il y a un virus”. Et un test logiciel positif déclare “Il y a un bug” !

Plusieurs moyens mnémotechniques peuvent être utilisés.

Moyen mnémotechnique 1 : les couleurs

La première voyelle de “positif” est la même première voyelle que “rouge”.

La première voyelle de “négatif” est la même première voyelle que “vert”.

Quand on exécute un test logiciel et qu’on considère qu’il nous a permis de détecter un bug, on lui met un statut “KO”, qui s’affiche bien souvent avec une pastille rouge. Positif = rouge !

De même, quand on exécute un test et qu’on ne trouve rien, on le met en “OK”, et c’est à ce moment-là une pastille verte qui s’affiche. Négatif = vert.

Moyen mnémotechnique 2 : une présence… ou une “n’absence” ?

Un test Positif déclare la Présence d’un bug.

Un test Négatif déclare qu’il N’y a pas de bug.

Vrai ou faux ?

Aucun résultat de test, que ce soit un test médical ou logiciel, n’est fiable à 100 %.

Ainsi, un test “en rouge” l’est peut-être à tort.

Prenons un exemple.

Adèle se base sur une spécification pour écrire des tests pour une application mobile. Or, cette spécification a été mise à jour, mais personne ne lui a transmis la dernière version. Au moment où elle exécute les tests, 10 tests échouent. Ces tests sont donc positifs (en rouge). Plus tard, elle découvre que sur ces 10 tests échoués, 8 sont en réalité conformes à des règles de gestion présentes dans la nouvelle version de la spécification. Les 8 tests sont donc positifs (rouges) à tort ; ils donnent un résultat faux : ce sont de faux positifs.

Les 2 autres tests positifs (rouges) expriment en revanche de réels écarts entre le comportement observé et le comportement attendu. Ces 2 tests positifs (rouges) disent donc vrai : ce sont des vrais positifs.

Inversement, un test OK, un test négatif (vert), peut passer à côté d’un bug. C’est donc un négatif qui dit faux ; un faux négatif.

Et enfin, le dernier, c’est le test qui annonce une bonne nouvelle (vert, négatif), et qui a raison de le faire : le vrai négatif !

Test en rouge Test en vert
Il y a un défaut Vrai positif Faux négatif
Il n’y a pas de défaut Faux positif Vrai négatif

Conclusion

Nous espérons que vous y voyez plus clair dans ces expressions. On vous souhaite beaucoup de vrais négatifs !

Les 3 bénéfices ultra-concrets des certifications

Faut-il se certifier pour construire une belle carrière dans le test logiciel ? Pas forcément. Est-ce qu’on le recommande ? Si vous le pouvez, oui ! Dans cet article, nous faisons le point sur les (bonnes) raisons de se certifier, et vous offrons quelques conseils pour faire des certifications des atouts riches de sens, plutôt que de simples documents administratifs !

Pourquoi (continuer de) se certifier ?

Depuis de nombreuses années, en France, la plupart des nouvelles personnes qui arrivent dans le monde du test logiciel suite à un dispositif de reconversion passent une, voire plusieurs certifications via leur organisme de formation. C’est une bonne chose, car cela assure un socle commun, une compréhension qui leur permet de maîtriser certaines notions essentielles. La certification ISTQB Fondation est la plus couramment présentée comme une sorte de passeport pour Testland.

Toutefois, une fois le premier emploi décroché, continuer de se certifier apporte un grand nombre de bénéfices. En voici quelques-uns !

1. Se démarquer sur le marché de l’emploi 🏅

Tout d’abord, d’un point de vue purement pratique, le marché de l’emploi du test tend à devenir plus concurrentiel. Les certifications permettent de rendre un profil plus attractif en y apportant un capital symbolique, c’est-à-dire une reconnaissance légitime et facilement reconnaissable. Elles agissent comme un signal auprès des personnes qui doivent parcourir de nombreux CV, surtout s’il s’agit de certifications réputées comme étant difficiles à obtenir.

Les certifications permettent aussi d’acter certaines spécialisations. Par exemple, une personne travaillant comme testeuse « généraliste » et détenant à la fois de l’expérience en tests de performance ET une certification portant sur ce type de test, rend visible cette appétence. Elle augmente ses chances d’être recrutée en tant que spécialiste en tests de performances.

2. Maintenir une habitude d’apprentissage 🧠

Si vous êtes en poste, il peut arriver de traverser des périodes où vous ne développez plus de nouvelles connaissances et compétences. Ce n’est pas grave en soi et c’est même assez courant. Faire de la veille et essayer de nouveaux outils sont de bonnes idées pour se tenir à jour, mais ces habitudes se retrouvent souvent enterrées sous le fourbi des autres activités « prioritaires ». Avoir en ligne de mire le passage d’une certification motive à dégager des plages de temps pour apprendre. Implémenter cette habitude au plus tôt dans sa carrière aide à garder un état d’esprit d’apprentissage constant !

3. Apprivoiser les situations stressantes 💥

Passer une certification est un moment susceptible de provoquer un panel d’émotions pas toujours des plus agréables au premier abord. Elles peuvent rappeler d’autres moments stressants de son parcours professionnel : examens de fin d’études, entretiens d’embauche… La différence importante, c’est qu’il y a souvent beaucoup moins d’enjeux. Typiquement, si vous ratez une certification, vous pouvez en général la passer de nouveau quelques jours plus tard.

Provoquer une exposition graduée à ce genre de situation permet à terme de les apprivoiser. Il est possible même que cela vous donne envie de les rechercher. Vous connaissez l’expression galvaudée « sortir de sa zone de confort » ; d’année en année, vous soumettre à des situations de stress contrôlées a plutôt tendance à élargir cette zone de confort, et à rendre ce stress synonyme de croissance et de progression.

Nos conseils

Créer un plan de vol précis

Quelle forme souhaitez-vous donner à votre carrière ? Qu’est-ce qui vous fait le plus vibrer : développer une spécialité en particulier, ou cultiver un profil touche-à-tout ?

Si vous souhaitez vous spécialiser, il existe des dizaines de certifications utiles au métier du test. Réfléchissez à ce qui vous plaît, à ce qui vous intéresse ; il y a certainement une ou plusieurs certifications qui peuvent vous accompagner dans cette voie. D’ailleurs, il est possible que votre prochaine certification utile ne soit pas forcément une certification orientée vers le test !

Par exemple, si les tests d’utilisabilité vous passionnent, des certifications spécifiques à l’UX peuvent être la piste pertinente à suivre.

Si vous souhaitez développer un profil généraliste, il est évidemment possible de « piocher » des certifications qui ne soient pas centrées vers le même objectif. Exercez-vous cependant à créer un fil rouge entre toutes ces certifications ; pourquoi les avez-vous choisies, celles-là en particulier ? Cela donnera davantage de cohérence à votre profil.

En parler à votre organisation

Selon l’organisation où vous travaillez, votre direction n’est pas forcément au courant de toutes les certifications qui existent ainsi que de leur utilité. Vous pouvez les sensibiliser, non seulement pour pouvoir passer vous-mêmes des certifications, mais aussi pour construire une approche plus globale qui pourra profiter à toute votre équipe.

Privilégier les certifications récemment mises à jour

La thématique d’une certification est évidemment importante, mais regardez aussi de quand date son contenu. Certains domaines, comme l’intelligence artificielle, évoluent très rapidement ces dernières années. Même si la plupart des certifications sont valables « à vie », cette caractéristique ne doit pas cacher le fait que les contenus peuvent devenir obsolètes ou incomplets.

Rester humble

C’est une évidence mais il faut le rappeler : une certification seule ne garantit pas l’expertise. Quand on découvre un domaine par le simple biais de supports théoriques associés à une certification, on peut avoir l’impression que le domaine est plus simple qu’il ne l’est réellement. Cette tendance, en tant que novice, à surévaluer ses compétences, s’appelle l’effet Dunning-Kruger.

Pour vous en prémunir, lisez attentivement le contenu d’une certification : vous remarquerez souvent une grande variété de sources et de pistes à explorer. Même une fois votre certification obtenue, il vous reste énormément de choses à étudier et à maîtriser pour justifier d’une véritable expertise.

C’est d’ailleurs assez paradoxal : dans une logique parfaite, on ne passerait de certifications que pour formaliser une compétence préexistante, alors qu’il peut arriver qu’on commence par la certification (et donc la reconnaissance sociale) avant d’avoir réellement pratiqué. Ce qui nous amène au conseil suivant…

Varier les approches

Quand vous étudiez un sujet en vue de passer une certification, complétez les enseignements du syllabus par des recherches personnelles. Cela vous permettra de développer une vision d’ensemble du sujet et de le contextualiser avec des exemples pratiques.

Ancrer les connaissances sur la durée

Pendant vos études, vous avez peut-être remarqué que ce que vous connaissiez quasiment par cœur à un moment donné, vous l’aviez oublié l’année d’après. La courbe de l’oubli a tôt fait de catapulter les connaissances dans le néant. Le risque ici, c’est de détenir une certification valable à vie… et de ne plus pouvoir s’en souvenir quelques mois plus tard !

Mobiliser régulièrement les connaissances acquises permet de les mémoriser durablement. Se forcer à relire régulièrement les documents de la certifications n’est pas forcément l’approche la plus efficace, ni la plus simple à mettre en œuvre. Utiliser un outil d’organisation des connaissances, comme Obsidian, peut être plus adapté pour assimiler durablement ce qu’on apprend.

Voici une capture d’écran du graphe Obsidian d’une des collaboratrices d’Hightest. Les notes prises lors des révisions de la certification ISTQB CTAL-TM (Management des Tests) sont éclatées en notes atomiques, chaque note étant consacrée à un concept précis. Elle a obtenu cette certification il y a des mois, mais peut rapidement mobiliser ces connaissances car elles sont intégrées à un ensemble de connaissances plus larges, et propre à son parcours spécifique.

Quelques ressources en libre accès

Qui dit certification dit entraînement… En plus de nos formations en présentiel, nous proposons en libre accès des questions de révision pour quelques certifications.

ISTQB GenAI – Tester avec l’IA générative

Notre dernier quiz porte sur la certification ISTQB GenAI. Le contenu du syllabus offre quelques bases théoriques pour comprendre le fonctionnement de l’IA, et une palette importante d’application de l’IA génératives dans la pratique des activités de test.

Nous pensons que cette certification va rapidement s’imposer et peut-être avoir un succès comparable à la certification ISTQB Fondation.

Pour vous entraîner sur ISTQB GenAI

ISTQB CTAL-TM – La certification de niveau avancé pour le management des tests

Attention, pour passer cette certification il est nécessaire de détenir la certification ISTQB Fondation.

Au niveau Fondation, les 7 activités principales du processus de test standard sont abordées ; avec la certification CTAL-TM, on se concentre sur 3 d’entre elles qui concernent spécifiquement le management des tests. Le pilotage et le contrôle des tests, la planification des tests et la clôture des tests sont ainsi approfondis.

Cette certification est particulièrement intéressante, car elle permet de comprendre la véritable portée de l’un des 7 principes généraux des tests : « Les tests dépendent du contexte » !

Pour vous entraîner sur ISTQB CTAL-TM

TMMi Professional

Cette certification n’est pas une certification ISTQB. Toutefois, les dialogues sont nombreux entre l’univers TMMi et ISTQB, et TMMi Professional est une certification qui complète parfaitement un bagage ISTQB. Inversement, pour pouvoir prétendre à des certifications supérieures de TMMi, certaines certifications ISTQB sont requises !

TMMi Professional aborde la gestion du processus de test à l’échelle de l’organisation, quand la certification CTAL-TM est plutôt pensée à l’échelle du projet ou du produit.

Pour vous entraîner sur TMMi Professional

Conclusion

Les certifications ne sont pas une fin, mais un outil puissant pour vous aider à progresser dans vos compétences, vos connaissances et votre carrière. À vous de vous approprier cet outil et de lui donner le maximum de sens !

Lynqa : des tests manuels… automatiques

Smartesting est une entreprise française que vous connaissez peut-être déjà pour ses outils Yest ou Gravity ; en 2025, son petit dernier s’appelle Lynqa.

“Des tests manuels automatiques”, telle en est la promesse oxymorique. Nous avons eu l’occasion d’essayer cet outil et souhaitons partager avec vous un exemple de scénario simple parmi ceux que nous avons testés.

Comment marche Lynqa, à quoi ça ressemble et qu’est-ce que ça implique de nouveau dans le monde du test, on va décortiquer tout ça dans cet article !

Lynqa, c’est quoi ?

Le principe de Lynqa : exécuter des tests à partir de cas de tests existant. Ni plus ni moins : un patrimoine de test avec des cas de test tout ce qu’il y a de plus classique avec actions et résultats attendu.

Pour illustrer le fonctionnement de Lynqa, voici un cas de test très simple :

Action : “Sur la page Fruits à gogo, entrer une quantité de 30 kilos de papaye, valider.”

Résultat attendu : “Le tarif s’affiche et correspond à 10 500 francs pacifiques.”

Lynqa devra se débrouiller avec ces informations, comme le ferait un être humain. Pas question donc de lui préciser de sélecteurs, comme un automate le nécessiterait. On oublie les input, les button, on ne cherche plus d’id unique, on ignore les classes CSS. Pas question non plus d’écrire précisément “kg” au lieu de “kilos” pour correspondre à la graphie du site. “Valider” doit être correctement interprété, à savoir comme un clic sur le bouton “Calculer”. Et enfin, on ne s’inquiète pas du format de la devise ; Lynqa devra comprendre que “francs pacifiques” c’est la même chose que “CFP”, “F CFP” ou encore “XPF” !

Comment ça marche ?

Sous le capot de Lynqa travaillent plusieurs agents IA. Chacun de ses agents a sa propre responsabilité : interpréter l’intention du test, découper les actions, “regarder” l’apparence de l’interface à tester, comparer ce qui est constaté par rapport à l’attendu…

Vous noterez qu’aucun agent n’étudie la structure du DOM ; tout est fait pour se calquer sur l’utilisation cible d’une personne réelle. Ce qui compte, c’est ce qui s’affiche à l’écran.

Lors d’une démo, nous avons pu voir Lynqa travailler avec une cartographie interactive, un type de test souvent casse-tête à automatiser from scratch avec les frameworks habituels. Cela nous a donné envie d’en savoir plus et de faire nos propres essais.

Lynqa nous a confié un accès bêta afin qu’on puisse essayer nous-mêmes cette prometteuse solution, alors allons-y !

Découvrir Lynqa avec un exemple simple

Remarque : les screenshots qui suivent sont datés d’octobre 2025. Au moment où vous lirez cet article, l’interface aura peut-être changé.

Lynqa se présente aujourd’hui comme un plugin Jira qui s’interface avec Xray. Pour commencer, il faut disposer d’un test.

Pour notre essai, les étapes du test sont les suivantes :

Quand on rattache ce test à une “Test Execution”, on peut voir en bas à droite le bouton “Exécuter avec Lynqa”…

Ce bouton ouvre une popin toute simple où il convient de saisir l’URL du site à tester.

À noter : pour le moment, seuls les sites web dont l’accès est public sont testables avec Lynqa, mais la roadmap du produit prévoit à terme de réaliser des tests sur tout type d’application, qu’elle soit web ou non, publique ou non.

Ça y est, l’exécution est lancée !

Les résultats des exécutions sont visibles dans un onglet Lynqa dédié.

On découvre alors le détail de ce que l’automate a réalisé, et on se rend compte que le postulat de départ était correct ! Lynqa a bien réussi à interpréter le langage naturel, à trouver les éléments sur la page, et à effectuer la vérification comme attendu.

D’ailleurs, pour s’en assurer, il est possible d’afficher des captures d’écran pour chaque étape.

Top, le premier test est réussi !

Maintenant voyons ce qui nous est proposé dans le cas d’un test en échec. Pour ce test-là, on va demander de calculer le prix d’un fruit qui n’existe pas dans la liste. La grenade n’est-elle pas le fruit idéal pour faire péter un test ? (Poudoum tssss 🥁)

Test en erreur : comment réagit Lynqa ?

Lançons ce test et observons le comportement de Lynqa face à cette valeur inattendue.

Le test est bien en échec, mais pas pour la bonne raison… Il faudrait que le test échoue dès le moment où il ne trouve pas la valeur “Grenade”, mais ce n’est pas le cas.

Essayons en découpant le test en deux étapes :

Désormais, le test échoue au bon endroit (et avec un message d’erreur clair !)

 Conclusion

Ces exemples très simples illustrent le fait que Lynqa ne se comporte donc pas comme une personne (par définition !), mais pas non plus comme un test automatisé classique, dont les capacités d’adaptation sont faibles et qui aurait échoué immédiatement en cherchant le mot “Grenade”.

Malgré le “quasi-faux-négatif”, ce premier aperçu est tout de même impressionnant et prometteur. L’outil est simple à prendre en main et ouvre de nombreuses potentialités. Avec un tarif compétitif (basé sur l’utilisation réelle), Lynqa pourrait devenir une brique incontournable de l’exécution des tests et se faire une place entre l’exécution humaine et l’exécution scriptée en interne.

Quelles conséquences alors sur nos façons de travailler ?

Utiliser efficacement ce type d’outil demandera de nouvelles compétences et une approche spécifique. Si les faux positifs sont monnaie courante dans le monde des tests auto, il apparaît que pour les tests avec des outils comme Lynqa, il faudra surveiller les faux négatifs avec autant de vigilance et apprendre à implémenter des tests qui favorisent un haut degré de reproductibilité, et des variations mineures et maîtrisées. Cela impliquera de revoir la manière dont on rédige les tests. De même qu’on n’écrit pas exactement de la même façon des tests pour un public interne ou pour le crowdtesting, il sera nécessaire d’apprendre à s’adresser de manière efficace aux agents IA qui “voient” l’application d’une manière qui leur est spécifique. Toutefois, ces modifications seront peut-être à terme marginales, en fonction du perfectionnement des outils. Lynqa vise à ce qu’il y ait, à terme, le moins d’adaptations possibles nécessaires sur les tests déjà rédigés.

Plus globalement, repenser la manière dont on construit nos stratégies de test sera une étape indispensable. Le ROI sera tout naturellement au cœur de la réflexion, afin d’arbitrer ce qu’il est plus rentable d’automatiser et ce qu’il est plus pertinent de déléguer à un outil comme Lynqa, pour dégager toujours plus de temps pour réaliser manuellement des tests à haute valeur ajoutée.

Vous pouvez découvrir Lynqa à votre tour à cette adresse !

Alors, que pensez-vous de ce type d’outil ?

Réussir votre politique de test

Mettre en place une politique de test est une étape importante dans la vie d’une entreprise concernée par la qualité logicielle. Toutefois, il existe peu de ressources qui expliquent concrètement comment procéder. Au travers de ce retour d’expérience, nous souhaitons proposer un exemple, à reprendre et adapter. 

Mais pour commencer, faisons un rappel de vocabulaire ! 

Qu’est-ce qu’une politique de test ? 

La politique de test est un document qui vise à orchestrer la gestion des tests d’une organisation. Le glossaire CFTL/ISTQB (dont vous pouvez retrouver le contenu ici) la définit ainsi : 

Un document de haut niveau décrivant les principes, l’approche et les principaux objectifs de l’organisation en matière de tests. 

C’est un document qui peut être très concis, tant qu’il répond correctement à ces questions élémentaires : 

  • « Pourquoi teste-t-on ? » 
  • « Qu’est-ce qui est important quand on teste ? » 

À l’inverse, ce document ne contient d’éléments temporels ou de bas niveau. Par exemple, si vous voulez lister les outils de test préconisés par l’entreprise, ce n’est pas dans la politique de test qu’il convient de le faire ! 

De la politique de test vont découler les autres documents importants qui concernent les tests : 

  • la ou les stratégies de test 

La politique de test est en général unique au sein d’une entreprise.

La mise en œuvre d’une politique de test est préconisée par TMMi aussi bien que par l’ISTQB. 

Une ressource méconnue 

Cela étant dit, regardons les choses en face : quelle minime pourcentage d’organisations possède effectivement une politique de test ? Et celles qui en ont une l’utilisent-elles vraiment ?

Marc Hage Chahine témoignait ainsi en 2021, dans un très bon article de La Taverne du Testeur : 

Je vais être honnête, je n’ai jamais connu, dans aucune de mes missions à ce jour, de politique de test. 

Chez Hightest, nous avons pu faire le même constat. Se pose alors la question… 

Pourquoi réhabiliter la politique de test ? 

Car en effet, on peut faire de très bons tests dans une organisation qui n’a pas de politique de test. 

Toutefois, la politique de test est un symbole fort. Elle atteste du fait que la direction de l’organisation se soucie de la qualité logicielle et la traite comme un levier de performance à part entière. Elle permet de faire de lien entre la raison d’être de l’organisation, et la pratique (parfois inconnue des hautes couches de la hiérarchie) des tests logiciels. Bref, de mettre en lumière ce qui est souvent invisible ! 

En découlent deux effets. 

La politique de test symbolise un engagement 

Si une organisation déclare faire du test un sujet important, alors elle doit aligner les moyens nécessaires à leur bonne mise en œuvre.

Mettons qu’une entreprise ait un comité de direction très sensible aux tests. Des moyens sont fournis année après année. Mais un jour, le comité de direction change du tout au tout, et compte désormais des personnes peu renseignées sur le test. La politique de test est la porte d’entrée qui permet de comprendre la logique de ce qui se pratique concrètement. Elle fait le lien entre ce qui intéresse vraiment la nouvelle direction, et les pratiques concrètes de test que l’on va retrouver dans d’autres documents (stratégie de test, plans de test maître, plans de test de niveau…) En l’absence de politique de test, le sujet restera peut-être trop obscur au yeux du nouveau comité. Les moyens qui seront alloués au test déclineront peut-être.

La politique de test aide à mieux tester 

Toutes les activités de test doivent découler de la politique de test : il y a une recherche de cohérence, ce qui est déjà un début d’harmonisation des pratiques. 

Mettons qu’une autre entreprise possède une stratégie de test et un respectable troupeau de plans de test en tous genres. En l’absence d’une politique de test qui récapitule les véritables enjeux du test, une nouvelle recrue pourrait se sentir un peu perdue, et tester sans vraiment comprendre ce qu’on attend d’elle, l’intention du test dans cette entreprise. C’est un peu comme si on enlevait les nuances d’une partition ! 

On comprend donc bien pourquoi TMMi insiste sur l’importance de mettre en place, en tout premier lieu, une politique de test. Celle-ci doit être validée par la direction de l’organisation, être dûment diffusée, et périodiquement révisée. 

When an organization wants to improve its test process, it should first clearly define a test policy.

(TMMi v 1.3, p. 24. C’est nous qui mettons en italique.) 

Mais alors, comment faire une politique de test ? 

C’est le moment de faire notre REX ! 

Dernièrement, nous avons animé une démarche de création de politique de test avec l’une de nos sociétés clientes. Voici comment nous avons procédé.

Sensibilisation du personnel 

Tout d’abord, il est à noter que cet atelier s’inscrivait dans une démarche globale visant à améliorer les pratiques de test de l’entreprise. En amont de la planification de la réunion, nous avions en effet mené un état des lieux des pratiques de test de cette société. Lors de la restitution, nous avions notamment expliqué la nécessité de partager une même vision, et pour ce faire, que la société se dote d’une politique de test. 

Il est essentiel de donner du sens à cet exercice, sous peine de se retrouver avec un document qui sonne creux. 

Mobilisation de personnel concerné par les tests 

Afin de réaliser cette politique de test, nous avons identifié des personnes clés, fortement impliquées dans les tests. Nous avons ajusté la forme de l’atelier en fonction du nombre d’individus ayant accepté l’invitation, afin de garantir des échanges à la fois fluides et riches. 

Collecte des valeurs de la société 

En amont de la réunion, nous avons demandé à ce qu’on nous transmette des documents résumant les valeurs de la société. Nous avons « ratissé large » afin d’avoir le plus de matière possible. Ceci pouvant inclure : 

  • Des livrets d’accueil distribués aux nouvelles recrues 
  • Des publicités orientées vers la clientèle 
  • Des présentations globales de l’entreprise 
  • Tout autre document de haut niveau reflétant l’entreprise et ses valeurs 

Cette étape nous paraissait indispensable. Nous avons d’ailleurs décalé une première fois l’atelier, ayant collecté trop peu de documents pour avoir une vision suffisamment précise des valeurs de l’organisation. 

Pour un peu plus de contexte, cette organisation étant complexe, plusieurs « systèmes de valeurs » y coexistent, ce qui a conduit à une liste d’une dizaine de valeurs. 

Préparation de l’atelier 

Une partie du groupe de travail se situant dans une autre zone géographique, il était important d’inclure tout le monde en proposant un atelier au format numérique. C’est ainsi que nous avons prévu, au lieu de traditionnels post-its, un atelier sur l’outil Draft.io. 

À noter que cet outil est gratuit pour une utilisation légère ; au-delà d’un certain nombre d’éléments créés, il est nécessaire de prendre un abonnement. 

En amont de la session, nous avons créé un tableau blanc dans Draft.io. Dans ce tableau, chacune des valeurs identifiées possède une colonne.

Nous avons également prévu (en bleu sur le schéma) des postits vierges, à disposition des membres de l’équipe le jour J.

Animation de l’atelier

Le jour de l’atelier, nous avons eu soin de réexpliquer les enjeux de la politique de test, et avons utilisé une variante du Bingo des Recettes à la Noix pour briser la glace et aider les personnes à rassembler des souvenirs, bons ou mauvais, relatifs à la qualité logicielle.

Après cela, le tableau blanc a été passé en revu et rempli d’idées. Il était initialement prévu de laisser les personnes remplir les post-its elles-mêmes sur leur PC ; l’ambiance étant plutôt à l’échange à bâtons rompus, nous avons proposé de plutôt prendre le rôle de scribe tandis que les personnes discutaient ensemble à l’oral au sujet des différentes colonnes.

Le résultat de l’atelier

Cet atelier a duré une heure et demie.

Synthèse suite à l’atelier

Pour la suite, nous avons proposé deux choix aux personnes ayant participé à l’atelier :

  • Organiser un autre atelier pour synthétiser les idées
  • Organiser une réunion de revue de la politique de test, proposée par nous suite à un travail de synthèse de notre côté.

C’est la deuxième solution qui a été retenue.

Nous avons donc passé en revue toutes les idées et créé un document très concis (une page A4) les regroupant.

Les idées non retenues pour le document :

  • Les idées d’applications très spécifiques (exemple : l’utilisation de tel ou tel outil)
  • Celles qui nécessiteraient des décisions nouvelles (exemple : organiser un recueil systématique des opinions de la population utilisatrice)
  • Celles qui coulaient de source (exemple : tenir compte du décalage horaire quand on s’adresse à des personnes d’autres zones géographiques)

Nous avons également procédé à une synthèse des valeurs, afin de n’en conserver que 3 : ambition, solidarité et efficacité. Elles permettent de classer les idées ayant émergé, tout en fournissant un rappel des valeurs initiales.

Réunion de revue de la politique de test

Une fois ce travail de synthèse terminé, une nouvelle réunion a eu lieu afin de revoir ensemble le brouillon. Nous avons réalisé quelques changements et ajouté 2 items. La politique de test est désormais prête, mais l’aventure n’est pas finie !

La politique de test… et après ?

La prochaine étape est de faire valider officiellement la politique de test par la direction de l’entreprise.

NB : idéalement, il aurait fallu que la direction prenne part directement aux ateliers, mais cela n’était pas envisageable pour des raisons d’organisation.

L’étape finale, et non des moindres : la diffusion ! Divers canaux sont envisageables, tous étant cumulables :

  • Diffusion initiale par mail
  • Mise à disposition pérenne via l’intranet de l’entreprise
  • Distribution à chaque nouvelle recrue impliquée dans les activités de test
  • Affichage physique dans des lieux appropriés

Il faudra également songer à revoir périodiquement cette politique de test. Il est important que ce document évolue au rythme de l’organisation. Ainsi, il continuera de donner du sens aux activités de test au fil du temps.

Conclusion

La politique de test n’est pas un document qui s’improvise. Comme il engage l’organisation dans une démarche de qualité logicielle, il est essentiel qu’il soit coécrit par des personnes à la fois représentatives, impliquées et influentes.

Sa forme finale n’a pas besoin d’être imposante : inutile d’écrire un épais document. Bien au contraire, une politique de test concise a beaucoup plus de chances d’être bien assimilée par toutes les parties prenantes.

Encore une fois, notre retour d’expérience n’est pas un exemple « parfait », mais une possibilité dont vous pouvez vous inspirer.

Et vous, avez-vous des expériences de mise en place de politique de test à partager ?

Nous vous conseillons de compléter cette lecture avec celle d’un autre article de la Taverne du Testeur. Vous y trouverez quelques exemples de politiques de test actionnables et qui ne prendront pas la poussière !