je vais bien sûr parler d'alphafold et de son impact jusqu'à présent mais je vais également aborder le travail crucial que nous avons effectué avant son développement et où je pense que l'avenir de l'IA pour la science se dirige plus largement mon parcours vers a en fait commencé de manière surprenante avec les jeux et plus particulièrement les échecs j'ai commencé à jouer aux échecs à l'âge de 4 ans j très compétitivement capitaine de nombreuses équipes juniors d'Angleterre en grandissant c'est une photo de moi à droite jouant au premier échiquier pour l'équipe d'Angleterre des moins de 11
ans quand j'avais 9 ans quand vous jouez sérieusement aux échecs un si jeune âge c'est une expérience très formatrice et pour moi cela m'a vraiment fait réfléchir à la pensée elle-même j'étais fasciné intrigué par la façon dont notre esprit élabore ses idées ses plans ses stratégies et comment cela peut être amélioré dans le cadre des camps d'entraînement auquels nous participions nous avions accès aux premiers ordinateurs d'échec comme celui-ci le Fidelity chess challenger certains d'entre vous se souviennent de ces premiers ordinateurs d'échec où il fallait physiquement appuyer sur les cases du plateau les lad sur le
plateau pour déplacer les pièces bien sûr nous étions censés utiliser ces machines pour améliorer nos compétences aux échecs mais je me souviens avoir été fasciné par le fait que quelqu'un ait réussi à programmer ce morceau de plastique inanimé pour jouer si bien aux échecs contre moi intrigué par cela j'ai commencé à lire des livres sur le sujet et j'ai fini par coder mon premier programme diaia sur mon fidèle Amiga 500 que vous voyez au milieu quand j'avais 11 ans pour jouer au jeu classique d'Otello ce programme mon premier programme Dia a réussi à battre mon
petit frère il n'avait que 5 ans à l'époque certes mais j'étais quand même émerveillé qu'on puisse créer quelque chose qui pouvait fonctionner indépendamment de soi cela m'a accroché aux ordinateur et à l'intelligence artificielle pour le reste de ma vie en avançant rapidement de plus de 20 ans les jeux sont toujours au cœur de mon approche de la et en fait au cœur de notre travail initial chez deep mind nous avons créé deep mind en 2010 comme un laboratoire de recherche industrielle avec pour mission de construire une intelligence iciel général la vision était de créer une
sorte de belle Labs moderne au début nous utilisions les jeux comme terrain d'essai parfait pour l'IA car il est très facile de générer beaucoup de données sur vos ordinateurs et vous pouvez faire jouer les systèmes contre eux-mêmes c'est facile de spécifier un objectif clair ou une métrique claire à améliorer dans la plupart des jeux vous pouvez spécifier de maximiser le score ou simplement de gagner la partie il est donc très clair si vous faites des progrès avec vos idées algorithmiques maintenant bien sûr le SOMUM pour l'IA des jeux qui a une longue hisire histoire depuis
le début de l'IA les pionniers comme Alan Turing et Claude Shannon ont tous essayé de créer et de programmer des ordinateurs d'échec mais le SOMUM pour li a des jeux est le GO l'ancien jeu de Go c'est probablement le jeu le plus complexe que nous ayons jamais conçu une illustration de la complexité du GO et qu'il y a 10 puissant 170 positions possibles ce qui est plus qu'il n'y a at dans l'univers il n'y a donc aucun moyen d'écrire un programme qui pourrait forcer brutalement une solution pour bien jouer au Go notre première grande percée
a eu lieu en 2016 avec notre système alphago il a réussi à battre le champion du monde le grand maître sud-coréen L lors d'un célèbre match à seou mais il n'a pas seulement gagné le match plus important encore il a développé de nouvelles stratégies et idées créatives qui n'avaient jamais été vu auparavant même si nous jouons au Go depuis des milliers d'années la plus célèbre de ces nouvelles stratégies était le coup 37 que je montre ici en bas à droite lors de la deuxème partie de ce match il est représenté par la pierre noire entourée
de rouge ce coup n'avait jamais été vu auparavant dans le GO de haut niveau et il s'est avéré être le coup parfait pour décider de cette deuxième partie sans coup plus tard c'était comme si alphago l'avait placé là avec précision à l'avance comment avons-nous fait cela le système alphago et ses successeurs alpha Z0 et autres successeurs plus généraux ont maîtrisé le jeu de Go et tous les autres jeux à deux J grâce à un processus que nous appelons l'autoapprentissage au lieu d'être programmé directement avec des solutions ces systèmes apprennent des stratégies et des solutions par
eux-mêmes dans ce cas en jouant des centaines de milliers voir des millions de parties contre eux-mêmes et en apprenant progressivement de leurs erreurs pour améliorer leur stratégie et grâce à ce processus d'autoapprentissage nous pouvons construire un modèle de réseau neuronal utile du GO alphago et ce résultat de 2016 ont été un moment décisif dans l'IA moderne car c'était la première grande preuve que ces types de système ces systèmes d'apprentissage étaient capable de faire quelque chose d'assez impressionnant et considéré comme insoluble avec ces systèmes de réseau neuronaux ce modèle de réseau neuronal nous pouvons effectivement guider
le processus de recherche sans avoir à explorer toutes les possibilités dans un jeu comme le GO ou dans n'importe quel espace complexe dans ce diagramme schématique je montre un arbre de possibilité dans une partie de GO si vous imaginez que chaque nœud de l'arbre est une position particulière de Go vous devez prendre une décision sur quel coup jouer ce qui vous fait descendre dans cet arbre il y a donc cet ensemble massif et insoluble de possibilités à partir de n'importe quelle position de GO ce que ce modèle de réseau neuronal permet à alphag de faire
c'est d'analyser d'examiner et de ne considérer qu'une fraction une infime fraction de tous les chemins possibles ici illustré par les chemins en bleu et il fait cela en déterminant quels sont les coûts les plus probables les plus prometteurs à examiner dans n'importe quelle position donnée il détermine également quel côté noir ou blanc est susceptible de gagner à partir de la position actuelle et la probabilité estimé de gagner depuis cette position ensuite une fois que le temps de réflexion est écoulé disons une minute ou deux il produit la meilleure ligne qu'il a trouvé jusqu'à présent la
ligne la plus optimale parmi celle qu'il a considéré parmi ces lignes bleues et ici dans ce cas c'est la ligne colorée en violet maintenant que nous avions atteint le sommet de l'IA des jeux nous savions que nous avions les techniques et les méthodes pour les transposer et s'attaquer à d'importants probl problème du monde réel y compris les grands défis scientifiques mais avant de voir ça très rapidement j'aimerais vous parler du nouveau projet que j'ai en ce moment comme vous le savez sur cette chaîne on analyse toutes les sorties et toutes les nouveautés en rapport avec
lia mon but est avant tout de faire découvrir cette magnifique technologie au plus grand nombre et surtout et avant tout d'éveiller les consciences par rapport à liya comme je vous l'ai déjà dit je ne sais pas vous mais moi quand j' parle autour de moi les gens n'ont pas vraiment conscience de ce qu''est li a ils ne se rendre pas compte de l'impact que celle-ci va avoir dans la société un impact monumental alors je l'ai déjà dit je ne fais pas de placement de produits sur cette chaîne je veux la garder la plus authentique possible
alors c'est pour cela que j'ai créé une formation si vous voulez apprendre à utiliser liya dans absolument tous les domaines de votre vie d'ailleurs si vous regardez cette vidéo je pense qu'il y a deux très grandes chances que vous utilisiez déjà àya notamment chat GPT par exemple et bien si vous voulez pousser beaucoup plus loin votre réflexion et apprendre à utiliser tous les outils de Lia et savoir comment exactement les appliquer à tous les domaines de votre vie vous pouvez regarder le lien que je vais vous laisser en commentaire épinglé sous la vidéo donc n'hésitez
pas à y faire un tour si vous êtes intéressé par le sujet je tiens juste à préciser que vous aurez également accès à la communauté vision Ia j'ai lancé le projet il y a très peu et vous êtes déjà plus d'une centaine à avoir fait l'acquisition de la formation ce qui est vraiment bien c'est que vous venez de beaucoup de domaines différents et j'adore discuter avec vous régulièrement de savoir comment appliquer les outils que vous apprenez dans vos domaines précis c'est vraiment intéressant bref désolé pour la petite coupure je ne perds pas plus de temps
et je vous rappelle que vous trouverez tous les liens dans la description ou dans les commentaires de la vidéo qu'est-ce qui fait donc qu'un problème se prête bien à ces méthodes d'intelligence artificielle nous recherchons trois critères qui rendent un problème approprié premièrement trouver un chemin à travers un espace de recherche massivement combinatoire le problème peut être formulé dans ces termes deuxièmement pouvons-nous spécifier une fonction objective claire ou une métrique à optimiser dans les jeux c'est assez facile il s'agit de gagner la partie ou de maximiser le score et troisièmement y a-t-il beaucoup de données disponibles
pour entraîner le modèle de réseau neuronal et idéalement y a-t-il un simulateur précis et efficace pour générer plus de données synthétiques en distribution il en fait que lorsque vous examinez les problèmes sous cet angle il y a beaucoup de problèmes du monde réel qui correspondent à ce profil ou peuventêtre adapté pour y correspondre y compris de nombreux problèmes scientifiques et pour moi la première chose que j'ai toujours voulu faire avec ces types de système était le repliement des protéines c'était toujours en tête de ma liste depuis que j'ai découvert ce fascinant problème en tant qu'étudiant
à Cambridge comme vous l'avez entendu plus tôt les protéines sont les éléments constitutifs de la vie presque tous les processus biologiques dans chaque être vivant dépendent des protéines pour leur fonctionnement en essence vous pouvez considérer les protéines comme des nanomachines biologiques exquises et elles sont bien sûr extraordinairement belles aussi comme nous l'avons entendu plus tôt les protéines sont spécifié par leur séquence d'acid aminés dont vous pouvez voir un exemple ici à gauche ces séquences se replient en structure 3D complexes par exemple celle-ci se replie en cette belle structure sur la droite vous pouvez l'imaginer comme
un collier de perles qui se recroqueville en boule connaître la structure 3D d'une protéine nous en dit beaucoup sur sa fonction et est bien sûr cruciale pour comprendre les maladies et accélérer la découverte de médicaments la question est donc la structure 3D d'une protéine peut-elle être prédite directement à partir de sa séquence acid aminé unidimensionnel dans sa conférence Nobel en 1972 Christian anfinsen a émis la célèbre conjecture que cela devrait être théoriquement possible il a avancé son hypothèse thermodynamique l'idée qu'une protéine prendrait uniquement la forme qui minimise l'énergie libre dans le système cela est devenu
connu sous le nom de problème du repliement des protéines et a lancé une quête de 50 ans pour trouver une solution informatique à ce grand déf pourquoi ce problème est-il si difficile et bien la façon normale de trouver la structure d'une protéine est de le faire expérimentalement c'est un travail très minutieux et difficile et il peut souvent prendre des mois voire des années pour déterminer la structure d'une seule protéine levintal a très bien résumé cette difficulté dans ce qui est devenu connu sous le nom de paradoxe de levintal il a estimé que pour uneéine est
typique il peut y avoir jusqu'à 10 puissan 300 configurations possibles que cette protéine peut prendre un nombre vraiment astronomique énumérer toutes ces possibilités prendrai évidemment plus longtemps que l'âge de l'univers et pourtant d'une manière ou d'une autre dans la nature ces protéines se se replient spontanément parfois en quelques millisecondes cela nous donne espoir qu'il doit y avoir une solution à cela car cela doit signifier qu'il y a une certaine topologie dans le pays énergétique qui guide le processus de replilimement très efficacement dans la nature et peut-être pouvons-nous retrouver ce processus un autre aspect clé de
notre décision de relever ce défi était qu'il y avait des données facilement disponibles pour apprendre et aussi très important pour le développement de l'IA des références très claires et excellentes pour mesurer nos progrès après des décennies de travail expérimental environ 170000 structur avaient été déterminé expérimentalement grâce au travail minutieux de dizaines de milliers d'expérimentateurs et rassemblé dans la protetine databank la PDB qui est une ressource incroyable et précieuse que nous avons utilisé comme point de départ pour entraîner alphafold deuxièmement il y avait la compétition CASP qui était considérée comme la référence par excellence pour la
prédiction de structure et été organisé tous les 2 ans depuis 1994 par le profess John et ses collègues pour tester les meilleurs systèmes informatiques la beauté de cette compétition était que c'est une évaluation à l'aveugle les protéines dont vous essayez de prédire la structure viennent d'être découvertes expérimentalement mais non pas encore été publié donc personne en dehors de ces groupes ne connaî ces structures c'est donc un véritable test de la capacité de ces systèmes informatiques on nous a toujours dit que le seuil critique pour qu'un système informatique comme celui-ci soit utile en pratique pour les
expérimentateurs était qu'il fallait obtenir une précision inférieure à la largeur d'un atome donc en moyenne moins d'un hstrum d'erreur ce qui est un degré de précision incroyablement élevée avec alphafold 2 nous avons réussi à atteindre cette précision atomique nous avons commencé avec alphaf en 2016 et l'avons inscrit pour la première fois à CASP 13 la 13e édition de CASP en 2018 nous avons vraiment fait avancer le domaine et si vous regardez ce graphique à barre des progrès c'est essentiellement le score gagnant pour la meilleure équipe à chaque édition de CASP comme une mesure de distance
et vous pouvez voir que pendant environ une décennie auparavant il n'y avait pas eu beaucoup de progrès dans l'amélioration de la précision de ses prédictions avec alphafold 1 il a dominé le classement de la compétition Caspe 13 et a considérablement améliorer les prédictions c'était vraiment la première fois qu'un système d'apprentissage automatique était introduit avec l'apprentissage automatique comme composant central du système mais nous n'avions toujours pas atteint la précision atomique qui est représentée par la ligne de score GDT 90 ici sur le graphique nous avons pu y parvenir en prenant les enseignements d'alphafold 1 puis en
restructurant un tout nouveau système avec alphafold 2 et en le soumettant à Caspe 14 il a atteint la précision atomique nécessaire ce qui a conduit les organisateurs de la compétition a déclaré le problème essentiellement résolu voici le diagramme de l'architecture innovante d'alphafold 2 je vais laisser John couvrir certains des détails techniques dans son exposé mais ce qu'il faut retenir à haut niveau c'est qu'en fait il n'y avait pas de solution miracle pour résoudre ce problème alphafold 2 a dû incorporer plus d'une douzaine d'innovations différentes dans un système hybride assez complexe l'un des éléments clés était
d'intégrer des contraintes évolutives et physiques dans l'architecture avec les composants d'apprentissage du système et de combiner ces deux éléments c'était essentiel pour que cela fonctionne l'équipe alphafold était une équipe multidisciplinaire composée de biologistes et de chimistes experts ainsi que de spécialistes en apprentissage automatique et en ingénierie c'était un système complet de bout en bout qui commençait avec la séquence d'acides aminés et produisait directement la prédiction de structure 3D il utilisait une étape de recyclage qui lui permettait d'affiner itérativement la prédiction sur de nombreuses étapes successive vous pouvez voir cela ici avec cette protéine complexe qui
était dans la compétition KSP 14 vous voyez à gauche la vérité terrain en vert et la prédiction en bleu qui se chevauche beaucoup et puis à droite vous pouvez voir comment alphafold de sur 192 étapes dans ce cas pour arriver à la structure finale prédite améliorant sa précision à chaque fois avec alphafold une fois que nous avions le système nous voulions bien sûr avoir l'impact maximal possible alphafold n'est pas seulement très précis il est aussi très rapide nous avons rapidement réalisé qu'il était assez rapide pour pouvoir pratiquement replier toutes les protéines connues de la science
donc environ plus de 200 millions de protéines dont nous connaissons les séquences et dont nous aimerions connaître les structure au cours de l'année suivante sur nos ordinateurs nous avons essentiellement replié les 200 millions de protéines nous avons rendu alphafold open source et nous avons construit la base de données alphafold avec nos fantastiques collègues de l'EMBL EBI l'Institut européen de bioinformatique et nous avons fourni un accès gratuit et sans restriction pour que tout le monde puisse utiliser toutes ces structures prédites bien sûr nous étions conscients de la sécurité et de l'éthique nous avons donc consulté plus
de 30 experts en biosécurité et bioéthique avant de publier la base de données pour nous assurer que les avantages l'emportaient largement sur les risques l'impact jusqu'à présent a dépassé ce que nous aurions pu imaginer avec plus de 2 millions de chercheurs du monde entier qui ont utilisé alphafold et ses prédictions plus de 30000 citations et il est vraiment devenu un outil standard dans la boîte à outils biologique voici un petit échantillon des progrès qu'alphafold a contribué à a accéléré dans une gamme énorme de problèmes parmi mes préférés il y a la lutte contre la pollution
plastique avec la conception de nouvelles enzymes l'aide concernant les maladies négligées qui affectent les régions les plus pauvres du monde l'aide à la biologie structurale fondamentale comme la détermination de la structure du complexe des ports nucléaires et même tout récemment il y a quelques semaines la découverte de nouveaux mécanismes dans la reproduction je pense que nous ne sommes vraiment qu'au début de l'impact que des programmes comme alphafold auront bien sûr nous avons continué à développer alphafold et plutôt cette année nous avons publié la nouvelle version d'alphafold alphafold 3 c'est aussi une grande avancée car avec
alphafold 2 on peut considérer qu'il résout essentiellement l'image statique d'une protéine et à quoi ressemble sa structure mais bien sûr nous savons que la biologie est incroyablement dynamique et en fait toutes les choses intéressantes se produisent en biologie lorsque différents aspects de la biologie interagissent entre eux alphaf 3 est de notre premier pas vers la modélisation des interactions et de la dynamique il est capable de modéliser les interaction par paire entre les protéines et d'autres protéines mais aussi entre les protéines et laarn les protéines et l'ADN et les protéines et les ligands je voudrais terminer
par une dernière partie en prenant un peu de recul et en parlant des implication de ce type de travail et de certains de nos collègues sur le tableau plus large de l'IA pour l'entreprise scientifique si nous prenons du recul et regardons l'essence de ce que nos systèmes ont fait tant alphago alphafold que certains des autres systèmes que nous avons construits en réalité nous pouvons les décrire comme trouvant la solution optimale dans cet énorme espace de recherche combinatoire nous faisons cela en apprenant un modèle de soit à partir de données soit à partir de simulation puis
en utilisant ce modèle pour guider un processus de recherche selon une fonction objective que l'on essaie d'optimiser il s'avère que c'est une solution très générale et que de nombreux problèmes peuvent s'adapter à cette approche je vous ai montré plutôt ce diagramme en arbre pour trouver le meilleur coup au Go dans une partie mais on pourrait facilement remplacer ces nœuds de position de Go par des conceptions de composés chimiques et maintenant imaginez que l'arbre de recherche que vous faites sert à trouver la meilleure molécule ou le meilleur composé médicamenteux dans l'espace chimique et je pense qu'on
pourrait très bien utiliser le même type de technique que j'ai décrite ici pour ce genre de problème cela signifie que nous entrons peut-être dans une nouvelle ère de ce que j'aime appeler la biologie numérique j'ai toujours pensé que la biologie à son niveau le plus fondamental peut être considéré comme un système de traitement de l'information certes un système phénoménalement complexe et émergent et je pense que c'est un système tellement complexe qu'il sera difficile de réduire le fonctionnement de la biologie à quelques équations mathématiques je pense que les mathématiques ont été un outil incroyable comme langage
de description pour les phénomènes physiques en physique et je pense que de la même manière l'intelligence artificielle pourrait être potentiellement le langage de description parfait pour la biologie nous espérons qu'alphafol est une sorte de preuve de concept qui pourrait quand nous regarderons en arrière dans 10 ou 20 ans aider à inaugurer cette nouvelle ère de la biologie numérique nous essayons d'y contribuer nous avons récemment créé il y a quelques années isomorphicque Labs une nouvelle entreprise qui s'appuie sur alphafold pour réimaginer le processus de découverte de médicaments à partir des premiers principes avec l'intelligence artificielle et
peut-être pouvons-nous réduire la découverte de médicaments qui est un processus incroyable difficile long et coûteux de plusieurs années à peut-être quelques mois voire un jour quelques semaines nous considérons parfois ce type de processus accéléré que je viens de vous montrer avec alphafold et les structures protéiques et qui se produira peut-être un jour avec la découverte de médicaments comme faire de la science à vitesse numérique j'ai depuis longtemps le rêve de pouvoir un jour simuler une cellule virtuelle entière pas seulement une protéine ou quelques protéines interagissant entre elles mais une cellule entière et ces prédictions seraient
utiles pour les expérimentateurs alors peut-être vaisje terminer puisqu'il s'agit d'une conférence Nobel par quelques idées nouvelles peut-être légèrement provocante dans l'esprit de Christian anfinsen et de sa conférence de 1972 depuis alfago je réfléchis beaucoup aux limites des systèmes classiques des systèmes informatiques classiques vous savez un grand débat en ce moment dans les cercles informatiques sur les sur les ordinateurs quantiques par rapport au système classique et je pense que les machines de Turing classique qui sont fondamentalement à la base des ordinateurs modernes aujourd'hui peuvent faire beaucoup plus que ce que nous pensions probablement auparavant et comment
peuvent-elles faire cela et bien ell le font peut-être en effectuant cette énorme quantité de précalcul à l'avance et utilise cela pour développer un bon modèle un bon modèle de l'environnement un bon modèle du problème que vous essayez de résoudre ensuite vous pouvez utiliser ce modèle pour explorer efficacement l'espace des solutions en temps polynomial ce qu'on appelle le temps polynomial en théorie de la complexité donc une conjecture que je propose vaguement et que peut-être tout motif ou structure qui peut être générée ou trouvé dans la nature peut-être efficacement découvert et modélisé par un algorithme d'apprentissage classique
cela ne veut pas pe dire tout tous les systèmes quantiques car il y aura beaucoup de choses qui ne se produisent pas dans la nature et qui n'ont aucun motif ou structure sous-jacent à apprendre par exemple la factorisation de grand nombre ou des problèmes abstraits de ce type mais je pense que les systèmes naturels comme les protéines et peut-être les matériaux auront potentiellement une structure qui peut être apprise par ces types de processus que j'ai décrit aujourd'hui et s'il s'avère que les systèmes classiques peuvent donc modéliser certains types de systèmes quantiqu je pense que cela
pourrait avoir des implications importantes pour des domaines comme la théorie de la complexité y compris P é= NP et peut-être même certains aspects de la physique fondamentale comme la théorie de l'information je voulais terminer par le dernier point qui est dè que j'ai beaucoup parlé d' pour la biologie et les sciences de la vie mais en réalité nous faisons beaucoup de travail chez deep mind à travers les sciences la médecine le climat les mathématiques voici juste une petite sélection de certains travaux que nous avons réalisé ces dernières années appliquant les techniques dia dont j'ai parlé
aujourd'hui au domaines médicaux comme l'analyse d'image et le diagnostic d'image médical les séquences et la détection des variations faux sens qu'elles soit bénigne ou pathogène nous travaillons aussi sur le contrôle du plasma dans un réacteur à fusion la création d'algorithmes plus rapides comme la multiplication matricielle des systèmes de prévision météorologique à la pointe de la technologie et la découverte de milliers de nouveaux matériaux que nous n'avions jamais vu auparavant tout cela en utilisant l'IA comme outif fondamental sous-jacent aux sciences avec tout cela nous entrons peut-être dans une nouvelle ère dorée de découverte aidé par ces
nouveaux types d'outils d' puissant j'ai travaillé toute ma vie sur l'intelligence artificielle parce que je pense qu'elle a un potentiel incroyable pour aider à relever les plus grands défis de l'humanité mais l'intelligence artificielle est aussi une technologie à double usage et elle doit être construite de manière responsable et sûre et être utilisé au bénéfice de tous pour ce faire je pense qu'il est crucial que les scientifiques et les technologues à la tête de ce domaine s'engagent avec un large éventail de parties prenantes du gouvernement au monde universitaire en passant par la société civile pour intégrer
tous les points de vue sur la façon dont ces système devrait être déployé et utilisé au mieux et je pense que une technologie aussi transformatrice que l'intelligence artificielle générale sera comparable à quelque chose comme l'invention du feu ou de l'électricité ce qui nécessite un soin et une prévoyance exceptionnel pour nous guider à travers les prochaines étapes du développement de cette technologie incroyablement puissante mais si nous parvenons à gérer cette technologie en toute sécurité alors je pense que l'IA général pourrait finir par être l'outil polyvalent ultime pour nous aider à comprendre l'univers qui nous entoure et
notre place en son sein je voudrais terminer bien sûr en remerciant l'incroyable équipe d'alphafold presque tous présents aujourd'hui les équipes d'Alpha d'Alpha Go et d'Alpha Z0 nos collègues plus large chez deep mind et Google pour tout leur soutien incroyable et l'infrastructure qui soutient tout ce travail que vous avez vu aujourd'hui nos merveilleux collaborateurs à l'EMBL EBI la communauté CASP la PDB et la communauté de biologie expérimentale et bien sûr enfin et surtout je veux remercier ma merveilleuse famille mes amis proches et collègues tous présents aujourd'hui pour leur amour le soutien et leur encouragement sans lesquels
rien de tout cela n'aurait été possible merci [Applaudissements] [Musique]