Cécilia Clémenti. Crédit :Jeff Fitlow/Université Rice
Les modèles informatiques ont parcouru un long chemin dans leur capacité à simuler les processus biologiques les plus élémentaires, comme la façon dont les protéines se replient. Une nouvelle technique créée par les chercheurs de l'Université Rice devrait permettre aux scientifiques de modéliser des molécules plus grosses avec une précision plus grande que jamais.
Le laboratoire Rice de la chimiste informatique Cecilia Clementi a développé un cadre de modélisation moléculaire qui peut reproduire plus précisément les résultats expérimentaux avec des modèles simples à gros grains utilisés pour simuler la dynamique des protéines.
Le cadre, Conception Observable de Modèles Moléculaires Efficaces (ODEM), intègre les données expérimentales disponibles dans la définition d'un modèle de simulation à gros grains. Pour un modèle à gros grains donné, répéter la simulation avec des changements incrémentiels dans les paramètres du modèle améliore la capacité de l'algorithme à prédire, par exemple, comment une protéine va trouver sa forme fonctionnelle.
Le travail dirigé par Clementi et Rice, étudiant diplômé et auteur principal, Justin Chen, apparaît dans l'American Chemical Society's Journal de théorie chimique et de calcul .
"Comprendre les protéines, surtout leur dynamique, est essentiel pour comprendre la vie, " a déclaré Clementi. " Il y a deux façons complémentaires de le faire :soit par la simulation, soit par l'expérimentation. Dans une expérience, vous mesurez quelque chose de réel, mais vous êtes très limité dans les quantités que vous pouvez mesurer directement. C'est comme assembler un puzzle avec seulement très peu de pièces."
Elle a déclaré que les simulations permettent aux chercheurs d'examiner tous les aspects de la dynamique des protéines, mais les modèles qui incorporent les propriétés de chaque atome peuvent prendre des mois ou des années aux superordinateurs à calculer, même si les protéines elles-mêmes se replient en quelques secondes in vivo. Pour des résultats plus rapides, les scientifiques utilisent souvent des modèles à gros grains, simulations simplifiées dans lesquelles quelques "billes" efficaces représentent des groupes d'atomes dans une protéine.
"Dans des modèles très simples, il faut faire de fortes approximations, et en conséquence, les résultats peuvent différer de la réalité, " Clementi a déclaré. "Nous combinons ces deux approches et utilisons la puissance de la simulation d'une manière qui reproduit les expériences. De cette façon, nous obtenons le meilleur des deux mondes."
L'acquisition des données initiales n'est pas un problème, dit Chen. « Il existe déjà une multitude de données expérimentales sur les protéines, donc ce n'est pas difficile à trouver, " Il a dit. " Il s'agit simplement de trouver un moyen de modéliser ces données dans une simulation. "
Clementi a déclaré que les données peuvent provenir de n'importe quelle source ou d'une combinaison de sources telles que le transfert d'énergie par résonance de Förster (FRET), mutagenèse ou résonance magnétique nucléaire. Le cadre de calcul tire parti des modèles de Markov pour combiner plusieurs simulations de protéines courtes afin d'obtenir la distribution à l'équilibre des configurations de protéines utilisées dans ODEM. "Les modèles de Markov nous permettent de combiner et d'explorer différentes parties de l'espace configurationnel d'une protéine, " a-t-elle dit. " C'est une façon intelligente de diviser pour mieux régner. "
La clé, selon les chercheurs, consiste à inclure uniquement autant de détails physiques que nécessaire pour modéliser le processus avec précision.
"Il y a des modèles qui sont très précis, mais ils sont trop coûteux en calcul, " dit Clementi. " Il y a trop d'informations dans ces modèles, vous ne savez donc pas quels sont les ingrédients physiques les plus importants.
« Dans nos modèles simplifiés, nous n'incluons que les facteurs physiques que nous jugeons importants, " dit-elle. " Si en utilisant ODEM les simulations améliorent leur accord avec les expériences, cela signifie que l'hypothèse était correcte. S'ils ne le font pas, alors nous savons qu'il manque des ingrédients."
Les chercheurs ont découvert que leur technique peut révéler des propriétés moléculaires imprévues. En train de tester leur algorithme, les chercheurs ont découvert un nouveau détail sur le mécanisme de pliage de FiP35, une protéine de domaine WW commune qui est un morceau de plus grandes protéines de signalisation et de structure. FiP35, avec seulement 35 acides aminés, est bien compris et souvent utilisé dans les études de pliage.
Le modèle ODEM de FiP35, sur la base de données expérimentales issues de résultats FRET simulés, a révélé plusieurs régions où la frustration localisée a forcé des changements dans le processus de pliage. Leur analyse a montré que les interactions sont importantes pour le processus et probablement conservées au cours de l'évolution, mais ils ont dit que les données menant à cette conclusion ne seraient jamais apparues si les données FRET simulées n'avaient pas été utilisées dans le modèle à gros grains.
"Maintenant, nous l'étendons à des systèmes plus grands, comme des protéines à 400 résidus, environ 10 fois plus gros que notre protéine de test, " a dit Chen. mais si vous faites 10 ou 11 itérations d'un modèle à gros grains avec ODEM, ils ne prennent que quelques heures. C'est une énorme réduction du temps qu'il faudrait à une personne pour voir des résultats raisonnables."