AI Executives Promise Cancer Cures. Here’s the Reality


Pour entendre la Silicon Valley le dire, la fin de la maladie est en bonne voie. Non à cause de la recherche en oncologie ou d’une solution à l’Amérique en cours pénurie de médecins, mais à cause de (quoi d’autre?) Avances dans une IA générative.

Demis Hassabis, un lauréat du prix Nobel pour ses recherches sur l’IA et le PDG de Google Deepmind, dit Dimanche, il espère que l’IA sera en mesure de résoudre des problèmes scientifiques importants et d’aider à «guérir toutes les maladies» dans les cinq à 10 ans. Plus tôt ce mois-ci, Openai libéré De nouveaux modèles et ont vanté leur capacité à «générer et évaluer de manière critique de nouvelles hypothèses» en biologie, entre autres disciplines. (Auparavant, le PDG d’Openai, Sam Altman, avait dit Le président Donald Trump, «nous verrons les maladies se guérir à un rythme sans précédent» grâce à l’IA.) Dario Amodei, co-fondatrice d’Anthropic, a écrit L’automne dernier, il s’attend à ce que l’IA provoque «l’élimination de la plupart des cancer».

Ce sont tous des dirigeants commercialisant leurs produits, évidemment, mais y a-t-il même un noyau de possibilité dans ces prédictions? Si une IA générative pouvait contribuer du tout à de telles découvertes – comme cela a été promis depuis le début du boom de l’IA – où commencera la technologie et les scientifiques que cela commencerait?

J’ai passé ces dernières semaines à parler avec des scientifiques et des dirigeants dans les universités, les grandes entreprises et les institutions de recherche – notamment Pfizer, Moderna et le Memorial Sloan Kettering Cancer Center – dans une tentative de comprendre ce que la technologie peut (et ne peut pas) faire pour faire progresser leur travail. Il y a certainement beaucoup d’hyperbole provenant des sociétés de l’IA: même si, demain, un modèle OpenAI ou Google a proposé un médicament qui semblait de manière crédible pour guérir un seul type de cancer, le médicament nécessiterait des années de laboratoire et d’essais humains pour prouver sa sécurité et son efficacité dans un environnement réel, que les programmes de l’IA sont désormais presque capables de simuler. «Il y a des panneaux de signalisation» pour le développement de médicaments, «et ils sont là pour une bonne raison», m’a dit Alex Zhavoronkov, PDG d’Insilico Medicine, une entreprise de biotechnologie pionnière.

Pourtant, Insilico a également utilisé l’IA pour aider à concevoir plusieurs médicaments qui ont réussi dégagé essais précoces. Les modèles d’IA qui ont fait de Hassabis un lauréat du prix Nobel, connu sous le nom d’Alphafold, sont largement utilisés par les chercheurs pharmaceutiques et biomédicaux. L’IA générative, j’ai appris, a beaucoup à contribuer à la science, mais il est peu probable que ses applications soient aussi variées que ses créateurs aiment le suggérer – plus semblable à un moteur plus rapide qu’une voiture autonome.


Il existe largement deux types d’IA génératifs qui contribuent actuellement à la découverte scientifique et mathématique. Les premiers sont essentiellement des chatbots: outils qui recherchent, analysent et synthétisent la littérature scientifique pour produire des rapports utiles. Le rêve est de pouvoir éventuellement demander un tel programme, en langue claire, d’une maladie rare ou d’un théorème non prouvé et de recevoir des informations transformatrices. Nous n’y sommes pas, et nous ne le serons peut-être jamais. Mais même les robots qui existent aujourd’hui, tels que les produits «de recherche profonde» séparés d’Openai et de Google, ont leurs utilisations. «Les scientifiques utilisent les outils qui sont là pour le traitement et le résumé de l’information», m’a dit Rafael Gómez-Bombarelli, chimiste du MIT qui applique l’IA à la conception de matériaux. Au lieu de googler et de lire 10 articles, vous pouvez demander une recherche approfondie. “Tout le monde fait ça; c’est une victoire établie”, a-t-il déclaré.

Les bons scientifiques savent vérifier le travail de l’IA. Andrea Califano, biologiste informatique chez Columbia qui étudie le cancer, m’a dit qu’il avait demandé l’aide de Chatgpt et Deepseek tout en travaillant sur un manuscrit récent, qui est désormais une pratique normale pour lui. Mais cette fois, «ils ont trouvé une liste incroyable avec des références, des personnes, des auteurs sur le journal, des publications, et cetera – et aucun d’entre eux n’existait», a déclaré Califano. Openai a trouvé que ses modèles les plus avancés, O3 et O4-Mini, sont en fait deux à trois fois plus susceptibles d’affirmer en toute confiance les mensonges, ou «hallucine», que leur prédécesseur, O1. (Cela était prévu pour O4-MinI, car il a été formé sur moins de données, mais OpenAI a écrit dans un rapport technique que «plus de recherches sont nécessaires pour comprendre» pourquoi O3 hallucine à un rythme aussi élevé.) Même lorsque les agents de recherche d’IA fonctionnent parfaitement, leur force est un résumé, pas une nouveauté. “Ce que je ne pense pas a fonctionné” pour ces robots, Gómez-Bombarelli a dit: “est vrai, nouveau raisonnement pour les idées.” Ces programmes, dans un certain sens, peuvent échouer doublement: formé pour synthétiser les données et les idées existantes, inventent-elles; Demandé à inventer, ils ont du mal. (L’Atlantique a un partenariat d’entreprise avec OpenAI.)

Pour aider à tempérer et à exploiter – la tendance à halluciner, les nouveaux systèmes d’IA sont positionnés comme des outils de collaboration qui peuvent aider à juger des idées. Un de ces systèmes, annoncé Par les chercheurs de Google en février, est appelé «co-scientifique de l’IA»: une série de modèles de langage AI affinés pour rechercher un problème, offrir des hypothèses et les évaluer d’une manière quelque peu analogue à la façon dont une équipe de scientifiques humains le ferait, Vivek Natarajan, a dit un chercheur de l’IA chez Google et un auteur principal sur le document présentant le co-scientifique AI, m’a dit. Semblable à la façon dont les programmes d’IA de jeu d’échecs se sont améliorés en jouant contre eux-mêmes, Natarajan a déclaré, le co-scientifique propose des hypothèses et utilise ensuite un «tournoi d’idées» pour se classer qui sont de la plus haute qualité. Son espoir est de donner aux scientifiques humains des «superpuissances», ou du moins un outil pour ideate et expérimenter plus rapidement.

L’utilité de ces classements pourrait nécessiter des mois ou des années à vérifier, et le co-scientifique de l’IA, qui est toujours en cours d’évaluation par des scientifiques humains, se limite à présent à la recherche biomédicale. Mais certaines de ses sorties ont déjà été prometteuses. Tiago Costa, chercheur à la maladie infectieuse à l’Imperial College de Londres, m’a parlé d’un récent test qu’il a exécuté avec le co-scientifique de l’IA. Costa et son équipe avaient fait une percée sur une question non résolue sur l’évolution bactérienne, et ils n’avaient pas encore publié les résultats – il ne pouvait donc pas être dans les données de formation de l’IA co-scientifique. Il s’est demandé si le système de Google pouvait arriver à la percée elle-même. Costa et ses collaborateurs ont fourni au co-scientifique l’IA un bref résumé de la question, de certaines citations pertinentes et de la question centrale à laquelle ils avaient cherché à répondre. Après avoir couru pendant deux jours, le système a retourné cinq hypothèses pertinentes et testables – et la meilleure a égalé les principaux résultats expérimentaux de l’équipe humaine. L’IA semblait avoir proposé la même découverte authentique qu’ils avaient faite.

Le système a développé sa principale hypothèse avec une justification simple, liant un lien vers un autre domaine de recherche et arrivant à une conclusion que l’équipe humaine avait pris des années pour arriver. Les humains avaient été «biaisés» par des hypothèses de longue date sur ce phénomène particulier, m’a dit José Penadés, un microbiologiste d’ICL qui a co-a dirigé la recherche avec Costa. Mais le co-scientifique de l’IA, sans une telle vision du tunnel, avait trouvé l’idée en établissant des connexions de recherche simples. S’ils avaient eu cet outil et cet hypothèse il y a cinq ans, a-t-il dit, la recherche aurait procédé beaucoup plus rapidement. “C’est assez frustrant pour moi de réaliser que c’était une réponse très simple”, a déclaré Penadés. Le système n’a pas concocté un nouveau paradigme ou une notion inconnue – il a simplement considérablement considéré une grande quantité d’informations, ce qui s’est avéré assez bon. Les scientifiques humains ayant déjà produit et produit en permanence, d’énormes quantités de connaissances, peut-être que l’IA la plus utile n’automatisera pas cette capacité que de la compléter.

Le deuxième type d’IA scientifique vise, en un sens, à parler la langue de la biologie. Alphafold et des programmes similaires sont formés non pas sur le texte Internet mais sur les données expérimentales, telles que la structure tridimensionnelle des protéines et l’expression des gènes. Ces types de modèles appliquent rapidement des modèles tirés de plus de données qu’une grande équipe de chercheurs humains ne pourrait analyser dans une vie. Les algorithmes d’apprentissage à la machine plus traditionnels ont, bien sûr, été utilisés de cette manière depuis longtemps, mais l’IA génératrice pourrait suralimenter ces outils, permettant aux scientifiques de trouver des moyens de réutiliser un médicament plus ancien pour une maladie différente, ou d’identifier les nouveaux récepteurs prometteurs dans le corps à cibler avec une thérapie, pour nommer deux exemples. Ces outils pourraient augmenter considérablement «l’efficacité du temps et la probabilité de succès», m’a dit Sriram Krishnaswami, chef des affaires scientifiques de Pfizer Oncology. Par exemple, Pfizer a utilisé un outil d’IA interne pour identifier deux de ces cibles qui pourraient aider à traiter le cancer du sein et de la prostate, qui sont actuellement testés.

De même, les outils génératifs-AI peuvent contribuer à la conception de médicaments en aidant les scientifiques à équilibrer plus efficacement divers traits moléculaires, effets secondaires ou autres facteurs avant d’aller dans un laboratoire ou un essai. Le nombre de configurations et d’interactions pour tout médicament possible est profondément grand: il existe des séquences d’ARNm 10⁶³² qui pourrait Produisez la protéine Spike utilisée dans les vaccins covid, Wade Davis, chef de Digital for Business de Moderna, y compris l’équipe AI-Product, m’a dit. Cela représente des dizaines d’ordres de grandeur au-delà du nombre d’atomes dans l’univers. L’IA générative pourrait aider à réduire considérablement le nombre de séquences qui méritent d’être explorées.

“Peut-être qu’il n’y aura jamais de médicament qui est” découvert “à travers l’IA”, m’a dit Pratyush Tiwary, physicien chimique à l’Université du Maryland qui utilise des méthodes d’IA. «Il y a de bonnes entreprises qui y travaillent, mais ce que l’IA fera, c’est aider à réduire l’espace de recherche» – pour réduire le nombre de possibilités dont les scientifiques ont besoin pour enquêter par eux-mêmes. Ces modèles d’IA sont des biologistes comme une calculatrice graphique et des logiciels de rédaction pour un ingénieur: vous pouvez idéation plus rapidement, mais vous devez toujours construire un pont et confirmer qu’il ne s’effondrera pas avant de le traverser.


La réalisation ultime de l’IA peut donc simplement être d’améliorer considérablement l’efficacité scientifique – pas contrairement aux chatbots déjà utilisés dans un certain nombre d’emplois de bureau normaux. Lorsque l’on considère «tout le cycle de vie du développement de médicaments, comment comprions-nous le temps?» ANAEZE OFFODILE II, le directeur de la stratégie de MSK, m’a dit. Les technologies de l’IA pourraient raser des années de congé de ce cycle de vie, mais encore plus d’années resteraient. Offodile a imaginé une réduction «de 20 ans à peut-être 15 ans» et Zhavoronkov, d’Insilico, a déclaré que l’IA pourrait «vous aider à réduire peut-être trois ans» du processus total et augmenter la probabilité de succès.

Il y a, bien sûr, des limitations substantielles aux capacités de ces modèles biologiques. Par exemple, bien que l’IA générative ait été très réussi à déterminer la structure des protéines, des programmes similaires suggèrent fréquemment des structures de petites molécules qui ne peuvent pas être synthétisées, a déclaré Gómez-Bombarelli. Peut-être que le plus grand goulot d’étranglement de l’utilisation de l’IA générative pour révolutionner les sciences de la vie – faire des prédictions utiles non seulement sur le domaine relativement contraint de la façon dont une protéine se pliera ou se liera à un récepteur spécifique, mais aussi la cascade complexe de signaux à l’intérieur et entre les cellules à travers le corps – est une rareté de données d’entraînement de haute qualité recueillies à partir d’expériences biologiques pertinentes. “La chose la plus importante est de ne pas concevoir le meilleur algorithme”, a déclaré Califano. «La chose la plus importante est de poser la bonne question.» Les machines ont besoin de connaissances pour commencer qu’elles ne peuvent pas, du moins dans un avenir prévisible, générer d’elles-mêmes.

Mais peut-être qu’ils peuvent avec des collaborateurs humains. Gómez-Bombarelli est le directeur des sciences des matériaux de Lila Sciences, une start-up qui a construit un laboratoire avec des équipements qui peuvent être dirigés par une combinaison de scientifiques humains et d’IA génératif, permettant aux modèles de tester et d’affiner les hypothèses dans une boucle. Insilico a un laboratoire robotique similaire en Chine, et Califano fait partie d’un effort mondial mené par l’initiative Chan Zuckerberg pour construire une «cellule virtuelle» de l’IA qui peut simuler un certain nombre de processus biologiques humains. Générer des idées «romanes» n’est pas vraiment le principal problème. “Les hypothèses sont bon marché”, a déclaré Gómez-Bombarelli. Mais «l’évaluation des hypothèses coûte des millions de dollars».

Jeter des données dans une boîte et les trembler a donné des résultats incroyables dans le traitement du langage humain, mais cela ne suffira pas à traiter la maladie. Les humains concevant les modèles d’IA qui obligeaient les sciences doivent comprendre le problème, poser des questions appropriées et organiser des données pertinentes, puis vérifier ou réfuter expérimentalement les sorties du système d’IA résultant. La façon de construire l’IA pour la science, en d’autres termes, est de faire une certaine science.

Leave a Reply

Your email address will not be published. Required fields are marked *