"Nous travaillons dans l'une des industries les plus réticentes au risque. L'objectif de l'évaluation de la sécurité est d'identifier les risques liés aux nouveaux médicaments et traitements expérimentaux." C'est souvent ce que je dis en introduction à l'arrivée d'un nouveau membre de l'équipe dans mon entreprise. J'estime qu'il est important de fournir un contexte aux non-initiés.
En tant qu'éditeur de logiciels, la manifestation la plus évidente de ce phénomène est la réticence de nombre de nos clients à passer à de nouvelles versions de logiciels. Tout changement introduit un risque qui doit être vérifié et validé, même lorsque ce changement apporte des améliorations dans la fonctionnalité de génération d'ensembles de données SEND.
J'ai souvent cité Audrey Walker, de Charles River, qui m'a dit un jour : "SEND a été le plus grand changement pour notre industrie depuis l'introduction des BPL". Un secteur qui a connu relativement peu de changements pendant des décennies a soudain été plongé dans le monde des données électroniques normalisées. SEND Changes Everything était l'une des sections de mon récent webcast, Sensible SEND Live! et je suis sûr que nous avons tous ressenti ce changement significatif au cours des dernières années. Et les changements se poursuivent. Le champ d'application de SEND ne cesse de s'élargir ; l'introduction de CDISC CORE et la modification de la manière dont les ensembles de données SEND sont vérifiés ; et les changements continus de la part de la FDA, qui utilise de plus en plus les paquets SEND. Je pense que ceux d'entre nous qui travaillent dans le monde SEND ont dû s'habituer à un certain niveau de changement continu. De nouvelles versions de logiciels doivent être mises en œuvre parce que de nouvelles normes doivent être prises en charge. Cependant, même ce niveau de changement semble éclipsé par les bonds en avant réalisés par des technologies telles que l'intelligence artificielle et l'apprentissage automatique.
Pendant des années, j'ai entendu parler du débat sur les sujets de contrôle virtuels, mais ce débat est presque dépassé, car la toxicologie prédictive et les méthodes in silico sont utilisées pour remplacer non pas des sujets individuels, mais des études entières. Il semble que je lise de plus en plus d'articles sur l'utilisation de l'IA dans le processus de R&D des médicaments. Ma propre organisation est à l'avant-garde des remplacements in silico et prédictifs des études de cancérogénicité.
Même en dehors de notre secteur, l'IA et d'autres nouvelles technologies occupent une grande partie de l'espace médiatique. Il est clair que nous vivons une ère de changement. Comment cela s'accorde-t-il avec notre aversion pour le risque ? Si nous devions utiliser des technologies d'apprentissage automatique pour lire et comprendre un rapport d'étude, comment pourrions-nous valider un tel système ? Nous ne pourrions pas nous assurer qu'il produit des résultats cohérents, car l'objectif serait qu'il apprenne en permanence et améliore donc continuellement ses résultats.
Je me demande donc ce qu'il advient de notre aversion au risque à l'ère du changement. Avez-vous une opinion bien arrêtée sur la question ? Si c'est le cas, n'hésitez pas à m'envoyer un courriel à l'adresse instem j'aimerais beaucoup connaître votre avis sur le sujet.
Jusqu'à la prochaine fois,
Marc