ALEXANDRE TEMPLIER

La fin d’un modèle : le début d’une ère nouvelle ?

Selon des chiffres publiés par le LEEM*, sur 10 000 molécules ciblées, 10 deviennent candidats médicaments, et 1 seule obtient l’autorisation de mise sur le marché. Ce taux d’échec explique en très grande partie le coût élevé des nouveaux traitements. Comment une industrie peut-elle être viable économiquement dans ces conditions, si ce n’est aux dépens du client final ? On le voit bien, la question  est moins celle de la compétitivité que de la remise en question d’un modèle de Recherche & Développement. Tous les laboratoires pharmaceutiques sans exception font face à un même impératif d’efficience. Comment produire davantage de produits, plus efficaces et plus sûrs, à moindre coût ?

Et si la solution était à portée de main ?

La quantité de données générée dans le domaine pharmaceutique est considérable. Elle représente d’ailleurs une bonne partie des coûts de développement du médicament. Il est frappant de constater à quel point le potentiel de ces données est sous-exploité. Selon une récente étude* menée en Amérique du Nord par la société Oracle, les dirigeants des laboratoires pharmaceutiques estiment qu’ils pourraient générer près de 20% de revenus supplémentaires en exploitant mieux les données dont ils disposent. En réalité, l’opportunité est bien plus grande. En effet, la vraie question aujourd’hui n’est pas tellement de savoir si l’on exploite la quantité croissante de données disponibles – défi relevé par les technologies du « Big Data » – mais bien de savoir si les données déjà exploitées le sont à leur plein potentiel. La réponse à cette question est sans aucun doute négative.

Considérons par exemple une étude clinique. Observons le taux d’efficacité moyen du produit obtenu sur l’ensemble des patients de l’étude. Oublier que cette efficacité moyenne n’est – la plupart du temps – que la conséquence d’une superposition de profils spécifiques de malades présentant tantôt de très bons, tantôt de très mauvais résultats est probablement l’erreur la plus coûteuse que l’industrie pharmaceutique puisse continuer à faire dans les années à venir. Le constat est le même au plan des effets indésirables. Un médicament dont les effets indésirables restent en deçà du seuil acceptable par les autorités dans le cadre d’une étude clinique, présente parfois un risque très élevé de ce même effet indésirable pour des populations spécifiques, comme nous le rappellent régulièrement les scandales relayés par les médias.

La question n’est pas tant celle de l’utilisation primaire de ces données. Elles ne sont générées que pour s’assurer de l’innocuité et de l’efficacité d’un produit chez l’homme et cela ne saurait se faire qu’en moyenne, sur une indication donnée et par conséquent sur la globalité des patients d’une étude. On constate en revanche que l’exploitation secondaire qui est faite de ces données, dans le but d’identifier des sous groupes de patients répondeurs, non répondeurs, ou présentant un risque élevé d’effets indésirables, dépend largement d’outils statistiques peu adaptés. Le taux d’échec que connaît aujourd’hui le domaine de la découverte de biomarqueurs illustre parfaitement ces propos. En effet, alors même que les biomarqueurs ont été introduits pour caractériser au plus tôt les profils de patients présentant une réponse spécifique à un traitement, il est pour le moins surprenant de constater que seule une infime partie des biomarqueurs candidats est effectivement validée in fine.

Comment détecter ces sous-groupes ?

La solution consiste à agréger les données du bas vers le haut et non simplement à ajuster un modèle prédictif global du haut vers le bas. Considérer chaque patient comme un individu unique, identifier progressivement – de manière algorithmique – ce qui rassemble ces individus au sein de multiples sous groupes présentant une réponse ou une résistance au traitement particulièrement élevée, puis interpréter ces sous-groupes à la lumière de l’expérience des médecins. Lorsque ces profils spécifiques de patients ont été identifiés au sein d’une étude, il devient possible de les retrouver dans d’autres études, et de vérifier que leur réponse au traitement est similaire. En revanche, faire l’impasse sur la détection de ces sous-groupes, et penser que les profils de patients répondeurs et non répondeurs seront représentés dans les mêmes proportions entre deux études successives relève de la pure utopie. Cette utopie est à l’origine du taux d’échec prohibitif que connaît aujourd’hui l’industrie pharmaceutique. L’approche proposée s’inspire de la démarche expérimentale hypothético-déductive de Claude Bernard et s’inscrit dans ce que l’on appelle aujourd’hui la médecine translationnelle.

La France a donné naissance à de nombreux théoriciens qui ont profondément influencé l’histoire des mathématiques. Quelques équipes Françaises, constituées d’universitaires et d’entreprises sont aujourd’hui en mesure de relever le défi dont il est ici question et l’ont déjà démontré à travers quelques exemples concrets. Les obstacles au déploiement d’une telle révolution sont néanmoins nombreux – à commencer par la force de l’habitude, et l’inertie des organisations massives que sont les laboratoires pharmaceutiques. Les politiques publiques seront elles en mesure de favoriser les conditions du déploiement ce cette innovation majeure à partir de l’hexagone ? Celle-ci nous reviendra-t-elle d’outre-Atlantique dans quelques années ? L’avenir nous le dira.

* Références :
http://www.leem.org
http://www.pharmatimes.com/mobile/12-07-18/pharma_not_making_the_most_of_data_says_oracle.aspx

Alexandre Templier

Co-fondateur & directeur général, QUINTEN

Animateur du groupe de travail « Biomarqueurs », MEDICEN Paris région.