ARC 2020-2025

ARC Consolidation 2020

 
CapTure : « Prélever le nectar : piégeage capillaire et structure élancée »

Parmi les animaux qui se nourrissent de nectar, certains ont une langue « poilue » ou « en forme de pinceau ». C’est le cas de l’abeille, dont les poils s’ouvrent lorsque la langue pénètre le nectar. Le rôle de ces poils dans la capture de ce fluide chez les abeilles n’est pas encore compris. Décrypter ce rôle est un des objectifs de ce projet.

Le présent projet vise à développer des modèles théoriques généraux grâce à des systèmes analogues (langues artificielles) pour lesquels on peut contrôler précisément les différents paramètres (taille et propriétés des matériaux) et des fluides modèles de propriétés connues (viscosité, densité).

Il sera ainsi possible de calculer l’effet d’un changement de paramètre, comme la taille des langues qui varie suivant l’espèce d’abeille considérée ou la viscosité du nectar, sur la quantité de nectar absorbée. On pourra éventuellement comprendre pourquoi plusieurs types de langues se sont développées au cours de l'évolution pour prélever du nectar.

Les prédictions de ces modèles seront validées à l'aide de mesures effectuées directement sur ces animaux en collaboration avec des biologistes.

Porte-parole: Fabian Brau, Service de Chimie Physique et Biologie Théorique, Faculté des Sciences

OPSTAT: « Estimer la dissimilarité entre différentes lois de probabilité »

Ce projet a pour objectif de développer des outils permettant d’estimer la “dissimilarité” entre différentes lois de probabilité. Ce type de problématique apparait notamment dans le cadre d’applications du célèbre Théorème Central Limite, où il s’agit de remplacer une distribution observée (par essence compliquée et difficile à manipuler) par une loi normale (par essence simple et facile d’utilisation).

Le travail des chercheurs consiste à construire des estimateurs permettant de quantifier l’impact d’un tel remplacement sur les prises de décisions subséquentes, non seulement dans un cadre gaussien mais également dans la comparaison de deux lois de probabilité, quelles qu’elles soient.

D’un point de vue méthodologique, l’outil principal qui est développé est un ensemble d’opérateurs intégro-différentiels appelés “opérateurs de Stein” qui permettent de caractériser toute loi de probabilité au travers d’outils ayant de bonnes propriétés théoriques et numériques.

Porte-parole: Yvik Swan, Unité de recherche en Statistique mathématique et Probabilités, Faculté des Sciences

"Quand la cosmologie nous permet de sonder les modèles de physique des particules"

Notre univers se compose à 95% de formes de matière et énergie dont la nature exacte nous est encore inconnue aujourd'hui. En particulier, de nombreuses sources de données      cosmologiques nous permettent de mettre en évidence le fait que 80% du contenu en matière serait constitué de matière noire. Cette nouvelle forme de matière interagit très faiblement avec la lumière mais aussi avec la matière dite "ordinaire", celle qui nous compose et dont nous connaissons les propriétés fondamentales.

Ce projet de recherche a pour but de déterminer les modèles théoriques viables et les signatures expérimentales associées à des particules de matière noire très faiblement couplées aux particules de matière ordinaire.

En effet, même avec des interactions très supprimées les particules de matière noire peuvent laisser des signatures distinctives dans les expériences de physique des particules et en cosmologie. Parmi ces signatures nous étudierons la possibilité de déterminer les propriétés du secteur sombre de l'univers et du mécanisme de production de la matière noire dans l'univers primordial grâce à la production de particules au long temps de vie aux collisionneurs de particules ou dans les expérience de beam dump (arrêt de faisceaux).

De façon complémentaire, nous effectuerons une analyse détaillée de l'impact des particules faiblement couplées sur la formation des structures à petites échelles, le fond de rayonnement cosmique, la nucléosynthèse primordiale et le signal à 21cm qui représente une nouvelle fenêtre sur l'histoire et l'évolution de l'univers primordial.

Notre approche interdisciplinaire, qui se situe à l'interface entre la physique des particules et la cosmologie, est constamment guidée par les résultats expérimentaux. Notre but est de souligner de nouveaux aspects de la phénoménologie de la matière noire tout en proposant de nouvelles pistes pour sa détection.

Porte-parole : Laura Lopez Honorez, Service de Physique théorique, Faculté des Sciences

ARC avancés 2020

 
Sensibilité au bruit des réseaux de régulation génétique responsables de la spécification cellulaire

Au cours du développement embryonnaire, les cellules se divisent et se spécifient en différents types cellulaires qui donneront lieu, à partir d’une cellule unique, à tous les tissus et organes de l’individu adulte. Cette spécification est régie par des réseaux de régulation génétique qui contrôlent l’expression de protéines-clefs caractéristiques d’un type cellulaire donné.

Les fluctuations moléculaires, appelées « bruit », jouent un rôle fondamental dans ce processus car elles favorisent l’émergence d’états cellulaires différents à partir d’une même situation initiale. Toutefois, les processus de décision cellulaire doivent donner lieu à des populations bien déterminées, ce qui suggère que les réseaux de régulation génétique sont également robustes par rapport au bruit.

Ce projet combinera la modélisation de la spécification cellulaire à la théorie des processus stochastiques pour étudier l’impact de la structure des réseaux de régulation génétique sur leurs propriétés de sensibilité et de robustesse par rapport au bruit.

En collaboration avec l’équipe du Dr. Claire Chazaud (Institut Génétique, Reproduction et Développement, Clermont-Ferrand), les chercheurs de l’ULB appliqueront leur étude à l’identification du mécanisme responsable de la première hétérogénéité apparaissant au cours du développement embryonnaire chez la souris.

Coordinatrice :  Geneviève Dupont,Unit of Theoretical Chronobiology, Faculté des Sciences
Partenaire :  Yannick De Decker, Nonlinear Physical Chemistry Unit, Faculté des Sciences

The ‘Ammonium’ nutrient and toxic waste: molecular analysis of transmembrane transport and impact on growth and differentiation’

Tandis que les bactéries, les champignons et les plantes importent l'ammonium en tant que nutriment azoté majeur; chez les animaux, en revanche, ce composé est plutôt connu pour son rôle dans l’homéostasie du pH et pour la toxicité de son accumulation. L’équipe a montré que le processus de transport d’ammonium à travers les membranes cellulaires est assuré par une famille de protéines appelée Mep-Amt-Rh, comprenant les antigènes Rhésus humains.

Ce projet combine des approches structurales et fonctionnelles afin de déchiffrer les mécanismes moléculaires de transport utilisés par les protéines de cette famille mais aussi d’élucider les mécanismes de régulation de transport déployés par les cellules en réponse aux signaux environnementaux.

Les recherches menées aideront à progresser dans la compréhension des troubles pathologiques liés à la mauvaise fonction des protéines Rh mais aussi du rôle de transcepteurs que certaines des protéines fongiques de cette famille jouent dans le développement de la filamentation, un processus généralement associé à la virulence des champignons pathogènes. Les résultats seront utilisés pour développer des stratégies thérapeutiques.

Coordinatrice : Anna Maria Marini - IBMM - Faculté des Sciences
Partenaire : René Wintjens - Faculté de Pharmacie

ENLIGHTEN ME: Enabling with light, enzymes and metals - a global approach for the activation of carbon dioxide and methane

Le dioxyde de carbone et le méthane sont les deux principaux gaz à effet de serre dont la génération continue d’augmenter de façon drastique. Il y a donc un besoin majeur et évident pour la réduction de ces émissions, la transformation de ces deux gaz à effet de serre en produits chimiques aisément valorisables représentant l’une des options les plus attrayantes.

Afin que cette valorisation soit d’une utilité quelconque, il est néanmoins crucial que les procédés mis en œuvre soient durables et efficaces aussi bien en termes de coût que de consommation énergétique.

 C’est dans ce contexte que se positionne le projet ARC ENLIGHTEN ME dont l’objectif principal est de mettre au point des procédés innovants et efficaces pour la transformation et la valorisation du dioxyde de carbone et du méthane reposant sur une approche globale utilisant des catalyseurs métalliques et enzymatiques simplement activés par de la lumière.

Coordinateur : Gwilherm Evano, Service de Chimie et Physico-Chimie Organiques, Faculté des Sciences
Partenaires : Cécile Moucheron - Service de Chimie et Physico-Chimie Organiques ; David Cannella - PhotoBioCatalysis Unit, Faculté des Sciences

Equations aux dérivées partielles en interaction

Ce projet est consacré à la compréhension mathématique de systèmes multiphysiques complexes impliquant des interactions entre des écoulements de fluides et des mouvements de structure. Comme exemple concret, on peut citer l’écoulement du sang dans une artère ou une valve cardiaque, l’écoulement du vent à travers l’hélice d’une éolienne.

Ces systèmes sont souvent décrits par des équations aux dérivées partielles non linéaires fortement couplées. L'accent sera mis sur les phénomènes d'instabilité résultant de ces interactions et sur l'émergence de comportements collectifs. 

Les systèmes que les chercheurs étudieront comprennent par exemple des suspensions de particules rigides qui se déposent dans un fluide visqueux, où les particules interagissent via le flux qu'elles génèrent; les vortex quantiques dans les supraconducteurs ou les superfluides, qui se comportent comme des particules ponctuelles et interagissent via le flux de supercourant ou de superfluide sous-jacent; une plaque partiellement articulée complètement immergée dans un flot, où les vibrations de la plaque modifient l'écoulement du fluide, qui à son tour exerce une force sur la plaque; la thermalisation d'une particule d'essai dans un fluide ou un plasma, qui est liée à la rétroaction des particules de fond à la perturbation locale provoquée par la particule d'essai.  Ces systèmes partagent des difficultés conceptuelles, et l'un des objectifs du projet est de construire des ponts en tirant le meilleur parti de la complémentarité des participants.

Illustration: premier document de tourbillons par Leonardo da Vinci

Coordinateur: Denis Bonheure, Département de mathématique, Faculté des Sciences
Partenaires : Antoine GloriaBruno PremoselliMitia DuerinckxCéline Grandmont 

De l’algèbre à la combinatoire et vice-versa

Dans ce projet, les chercheurs étudieront plusieurs questions liées en algèbre et en géométrie, en combinant des techniques de la combinatoires et de la théorie des catégories.

En géométrie algébrique, on étudie des « espaces algébriques », qui sont des objets géométriques complètement décrits par leurs « algèbres à coordonnées ». Les propriétés géométriques de l’espace considéré peuvent dès lors être traduites en propriétés algébriques de l’algèbre associée.

L’avantage de cette approche est que dans ce cadre algébrique, toute une série de nouveaux outils est disponible, ce qui n'est pas le cas dans le contexte purement géométrique. Par exemple, si l’espace initial contient des « singularités » (des points qui n’ont pas de plan tangent dans le sens classique), il peut être utile de considérer des « algèbres non-commutatives », qui sont des algèbres n’apparaissant pas comme des algèbres à coordonnées à partir d’objets géométriques dans le sens classique, mais qui permettent de « résoudre » ces singularités d’une manière qui peut être définie précisément.

La première partie du projet concerne de telles « résolutions non-commutatives (crépantes) ».
En incorporant la correspondance mentionnée plus haut entre les « espaces algébriques » et les « algèbres commutatives », à toute algèbre (possiblement non-commutative), on peut associer sa « catégorie de représentation » et interpreter cela comme un objet géométrique.

Dans ce projet, les chercheurs comptent aller plus loin et étudier les catégories de « représentations partielles », en particulier de groupes finis et de groupes algébriques. De même que les groupes apparaissent naturellement en géométrie comme décrivant des symétries, les actions partielles et leurs représentations décrivent de manière similaire des symétries qui ne sont pas définies de manière globale, ce qui permet d’étudier plus en profondeur la structure interne de l’objet géométrique concerné, comme par exemple pour les polytopes.

Coordinateur : Joost Vercruysse, Département de mathématique, Faculté des Sciences
Partenaires : Michele D’AdderioDimitri LeemansSpela Spenko



ARC 2018-2023

ARC Consolidation 2018

"Des 'usines' de nutriments sous la glace : quantification du réacteur biogéochimique subglaciaire et de sa réaction au changement climatique (NuttI)"

Le changement climatique se trouve amplifié dans les régions polaires du globe, et les inlandsis fondent donc actuellement à une vitesse record. Si les conséquences physiques de cette disparition alarmante ont été bien étudiées, sa dimension biogéochimique est en revanche encore peu connue. 

D’après des recherches récentes, les environnements subglaciaires — que l’on croyait autrefois stériles — sont des réacteurs biogéochimiques extrêmement actifs qui exportent d’importants flux de nutriments essentiels à la vie dans des régions océaniques du monde entier. Pourtant, les facteurs qui déterminent la nature, l’ampleur et le rythme de ces flux sont encore mal compris : on ne sait donc pas quelle pourra être l’étendue des effets de la fonte des glaces sur les cycles biogéochimiques mondiaux et sur le climat. 

L’objectif général du projet proposé est de remédier à ce manque de connaissances en mettant au point le premier modèle mécaniste hydrologique et biogéochimique destiné à l’analyse des environnements subglaciaires. Il servira à déterminer quels sont les principaux déterminants de l’exportation de nutriments glaciaires, et à prédire les flux d’exportation ainsi que leur réaction au changement climatique. 

Porte-parole: Sandra ARNDT, Biogéochimie et Modélisation du Système Terre (BGeOsys)

ARC avancés 2018

Des solutions robustes et efficaces pour relever le défi du "Big Data"

L’ère du "Big Data" se caractérise par le volume et la variété d’informations disponibles. Les statisticiens et les spécialistes des données doivent prendre en charge des données en grande dimension, des structures de dépendance complexes, ou des données prenant des valeurs sur des surfaces non planes telles qu’une sphère ou un cylindre.
Aujourd’hui, plus que jamais, de nouvelles méthodologies sont donc nécessaires, et la recherche dans ce domaine s’est développée de manière exponentielle au cours des dix dernières années. Toutefois, il arrive trop souvent que l’application pratique des techniques proposées soit rendue difficile par les restrictions imposées sur le nombre de variables en jeu, sur le type de dépendance autorisé dans les données, ou sur leur distribution supposée. L’objectif de ce projet est de mettre au point des méthodes susceptibles de relever le défi du « Big Data » avec des solutions robustes, efficaces, et qui ne font pas intervenir des restrictions sur la nature des données à traiter.

Porte-parole

Davy Paindaveine
European Centre for Advanced Research in Economics and Statistics (ECARES, Solvay Brussels School of Economics & Management)
Département de Mathématique (Faculté des Sciences)

Partenaires

David Preinerstorfer, ECARES (Solvay Brussels School of Economics & Management)
Thomas Verdebout, Département de Mathématique (Faculté des Sciences)

Évolution structurelle de la matière molle dans des conditions de dissipation

La thermodynamique à l’équilibre demeure le cadre dominant pour la chimie et la physique, en particulier dans le domaine de la science des matériaux. Le projet « SADI » entend se démarquer radicalement de la recherche traditionnelle pour étudier l’application de ce cadre à des théories qui ont récemment émergé dans le domaine de la physique statistique hors équilibre. 

Plus précisément, il examinera la manière dont la dissipation — le processus par lequel le système absorbe de l’énergie — gouverne l’évolution structurelle et la dynamique de certains systèmes moléculaires et macromoléculaires. Les observations expérimentales seront analysées à la lumière de principes théoriques de base. 

Porte-parole: Yves Geerts, Laboratoire de Chimie des Polymères
Partenaires: Patricia Losada-Pérez (Service de Physique de la Matière molle) ; Simone Napolitano (Dynamique des Polymères et de la Matière molle) ; Thomas Gilbert (Service de Physique des Systèmes Complexes et Mécanique Statistique)

Analyse cellulaire de la persistance bactérienne

La persistance est un « commutateur phénotypique » qui permet à des cellules bactériennes au sein d’une population de tolérer les antibiotiques. Réversible, ce phénomène s’observe à une faible fréquence dans les populations bactériennes, ce qui rend difficile l’observation et l’analyse de cellules persistantes. Le laboratoire de Microbiologie Cellulaire et Moléculaire recherche les mécanismes moléculaires sous-jacents de la persistance, qui sont encore méconnus et débattus.

Ce projet tentera d’élucider la question de la persistance bactérienne en recourant à l’analyse au niveau de la cellule unique, approche qui permettra de comprendre pourquoi une petite minorité de cellules se différencient pour devenir des cellules persistantes. Les chercheurs mettront au point des puces microfluidiques qu’ils fabriqueront par lithographie laser 3D, afin de créer des chambres de piégeage de la taille d’une bactérie. Les puces microfluidiques seront ensuite placées sous un microscope à fluorescence, afin de repérer les cellules persistantes. Les chercheurs procèderont alors à la caractérisation moléculaire ; l’intégration des données leur permettra de déterminer quelles voies sont enclenchées dans les cellules persistantes. 

Porte-parole: Laurence Van Melderen, Laboratoire de Microbiologie Cellulaire et Moléculaire
Partenaire: Benoit Scheid, TIPs

ARC 2016-2021

ARC Consolidation 2016

Modélisation d’interactions supramoléculaires basées sur des complexes réactifs

Un des challenges de la nanoscience est la conception de matériaux intelligents, dont les propriétés optiques, électroniques ou mécaniques, par exemple, peuvent être ajustées pour répondre à divers stimuli.

Dans ce projet, l’équipe du Service de Physique des Systèmes complexes et Mécanique statistique va particulièrement s’intéresser à une classe de systèmes dans lesquels les interactions entre les composants unitaires (polymères ou nanoparticules par exemple) sont menées par des complexes réactifs cabable d’établir des liens supramoléculaires. En manipulant la température ou le pH, par exemple, les chercheurs peuvent modifier le nombre ou le type de ces liens et ainsi orienter les propriétés macroscopiques de ces matériaux. Les chercheurs de la Faculté des Sciences vont à la fois développer un canevas prédictif qui aidera le développement de nouvelles expériences.

Ces systèmes présentent de nombreux débouchés dans la science des matériaux, mais aussi pour le secteur biomédical : capable d’imiter les interactions entre récepteurs et ligands, ce système pourrait notamment ouvrir la voie à de nouvelles stratégies biomimétiques en fournissant un contrôle précis pour l’adsorption ciblée de médicaments.

Porte-parole: MOGNETTI Bortolo Matteo, Service de Physique des Systèmes complexes et Mécanique statistiqu

Dynamic Functional Data 

L'augmentation constante de la puissance de calcul et de la capacité de stockage permet d'enregistrer et traiter des données presqu’en continu. Ces données fonctionnelles sont maintenant présentes dans divers domaines, y compris les sciences environnementales (courbes de pollution, températures,…), la médecine (imagerie,…), l’économie, etc. De manière assez surprenante, la méthodologie existante pour les données fonctionnelles est presque exclusivement consacrée à des échantillons indépendants et peut dès lors aboutir à des conclusions sous-optimales ou inappropriées.

Dans ce projet, un groupe de chercheurs du Département de Mathématique va tenter de mettre au point un canevas théorique large pour les séries fonctionnelles temporelles ainsi de développer de nouveaux outils statistiques pour ce type de données.

Porte-parole: HÖRMANN Siegfried, Département de Mathématique 

La méthode de compression d'entropie en combinatoire 

Il existe de nombreux problèmes algorithmiques pour lesquels aucun algorithme de résolution efficace (en temps polynomial) n'est connu. C'est par exemple le cas du problème du voyageur de commerce, qui doit parcourir le trajet le plus court entre des villes données avant de revenir à sa ville de départ : ce problème d’apparence simple ne trouve pourtant pas de solution algorithmique rapide lorsque le nombre de villes est élevé. C’est également le cas pour la satisfaisabilité des formules en logique booléenne. Pour une très grande famille de problèmes de ce type, la majorité des chercheurs suspectent qu'il n'existe simplement pas d'algorithmes efficaces. C’est la fameuse question "P?=?NP", mise au prix d'un million de dollars par le Clay Mathematics Institute.

Certains de ces problèmes deviennent cependant moins ardus en présence d'informations supplémentaires. Par exemple, si chaque variable de notre formule booléenne n'apparaît pas "trop souvent", alors nous pouvons simplement choisir au hasard les valeurs des différentes variables : la formule sera satisfaite avec une probabilité non nulle. C’est une conséquence d'un outil puissant en combinatoire, le Lemme Local de Lovasz. Cependant, cela ne nous aide pas à trouver la bonne assignation des variables.

Récemment, un réel tour de force a été réalisé par deux chercheurs, Robin Moser et Gabor Tardos : ils ont obtenu une preuve constructive du Lemme Local de Lovasz, qui donne lieu à des algorithmes efficaces pour trouver les solutions dont l'existence est garantie par le lemme. Au coeur de leur preuve se trouve une toute nouvelle technique, appelée méthode de "compression d'entropie".

Il est rapidement apparu que cette technique n'était pas limitée au Lemme Local mais pouvait être utilisée plus généralement pour obtenir de nouveaux résultats en combinatoire. Ceci a ouvert un champ d'investigation entièrement neuf et prometteur que nous nous proposons d'explorer dans ce projet. En explorant le potentiel et les limites des arguments de compression d'entropie, l'objectif est d'obtenir des énoncés généraux (des outils) qui peuvent être ensuite utilisés pour résoudre une large famille de problèmes combinatoires.

Porte-parole: JORET Gwenaël, Département d’Informatique 

Le sexe restreint-il l’évolution des génomes? Une étude expérimentale utilisant la levure comme organisme-modèle

Chez les animaux sexués, les chromosomes se présentent par paires dans les cellules, permettant ainsi la recombinaison des allèles au cours de la méiose. Lors d’une précédente collaboration internationale, Jean-François Flot et ses collègues ont séquencé puis analysé le génome du rotifère asexué Adineta vaga, espèce microscopique ne comprenant que des femelles se reproduisant de manière clonale, sans méiose. Ils ont alors remarqué que les chromosomes de ces animaux ne formaient plus de paires mais présentaient de nombreux réarrangements, comme des paquets de cartes à jouer qu’on mélange. Ceci suggère que la perte de la reproduction sexuée a libéré le génome des contraintes structurelles liées à la méiose, permettant au génome d’évoluer plus librement.

Pour tester cette hypothèse, Jean-François Flot et son équipe vont observer l’évolution du génome de levures de bière (Saccharomyces cerevisiae, un organisme modèle au génome bien connu) dans des lignées parallèles se reproduisant périodiquement de manière sexuée ou exclusivement de manière clonale. En deux ans, le chercheur espère voir chaque lignée se diviser plus de 8.000 fois, soit l’équivalent de 200.000 ans d’évolution à l’échelle humaine. Les changements de structure du génome au cours de temps seront étudiés via une technique de point appelée « 3C-seq ». Les résultats de cette étude permettront de mieux comprendre le rôle du sexe dans l’évolution des organismes.

Porte-parole: FLOT Jean-François, Evolution biologique et Ecologie 

Mécanismes moléculaires de la persistance bactérienne

Les bactéries résistantes aux antibiotiques sont une menace importante pour la santé publique. Toutes les bactéries sont virtuellement capables de produire des variants tolérants à la majorité des antibiotiques connus, appelées « cellules persistantes ».

La formation de ces cellules persistantes est contrôlée par une molécule synthétisée par l’enzyme ReIA. C’est cette enzyme qui est au cœur de ce nouveau projet de recherche : Abel Garcia-Pino et ses collègues du laboratoire de Biologie Structurale et Biophysique vont tenter de la caractériser en étudiant ses caractéristiques « du niveau atomique jusqu’à l’in vivo ». Ils vont déterminer : (1) la structure de la protéine ReIA appartenant à différentes espèces bactériennes et sous ses différentes formes et états catalytiques; (2) les consommations énergétiques lors de ses interactions et de ses changements de conformation; et (3) les bases moléculaires de son activité et de ses fonctions catalytiques.

L’enzyme ReIA n’a pas encore pu être caractérisée, du fait de son état instable et complexe : l’utilisation de ‘nanobodies’ permettra de surmonter cette difficulté. L’étude permettra une meilleure compréhension des mécanismes de persistance chez les bactéries et ouvre une nouvelle voie vers la conception de nouveaux antibiotiques.

Porte-parole: GARCIA-PINO Abel (laboratoire de Biologie Structurale et Biophysique, ULB)

ARC avancés 2016

Recherche des neutrinos émis par la matière noire

La matière noire est cinq fois plus abondante dans l’Univers que la matière "ordinaire", mais ce dont elle est composée reste pourtant assez peu connu. La question principale encore ouverte est : quelle est la nature de la matière noire en tant que particules ?

En 2013, l’expérience IceCube (rassemblant des scientifiques de 12 pays dont une équipe de l’ULB) a rapporté la toute première observation de neutrinos astrophysiques de haute énergie. Cette découverte ouvre un nouveau champ dans l’observation de l’Univers, celui des « télescopes de neutrinos ». Ceux-ci pourraient permettre en particulier de mettre en évidence des neutrinos émis par les particules de matière noire, fournissant des informations essentielles sur celles-ci.

Dans ce projet, les chercheurs du service de Physique Théorique vont s’associer aux membres de IceCube pour développer un vaste programme de recherche sur ce sujet. Les expérimentateurs de IceCube auprès de l’Institut Interuniversitaire des Hautes énergies travailleront sur la récolte et l’analyse des données, tandis que les théoriciens de l’ULB apporteront pour cette analyse leur expérience de longue date dans la recherche et la modélisation de la matière noire, ainsi que leur expérience sur des recherches similaires basées sur l’observation de rayons gammas.

Porte-parole: Thomas Hambye, Physique théorique.

Non-Zero Sum Game Graphs: Applications to Reactive Synthesis and Beyond

Les systèmes réactifs sont des systèmes informatiques qui maintiennent une interaction constante avec l’environnement dans lequel ils opèrent. Les systèmes informatiques qui automatisent les transports publics, les systèmes d’aide au pilotage d’avion, ou encore les systèmes informatiques qui contrôlent les appareillages médicaux sont des exemples de systèmes réactifs. Toutes défaillances ou bugs dans ces contextes critiques peuvent avoir des conséquences catastrophiques.

Les systèmes réactifs ont plusieurs caractéristiques (opérations en temps-réel, parallélisme, simultanéité des évènements, etc.) qui les rendent difficiles à concevoir. Pour rencontrer ces difficultés, des recherches fondamentales visent à développer de nouveaux modèles mathématiques qui permettent d’exprimer précisément les propriétés de correction que doivent satisfaire ces systèmes. Ces méthodes mathématiques permettent ensuite de prouver mathématiquement la correction d’une solution ou de trouver systématiquement des erreurs de conception avant la mise en place du système. Le "model-checking" est une technique qui a révolutionné le développement des systèmes critiques en permettant la détection d’erreur de conception très tôt dans le cycle de développement et ceci de manière automatique.

Une autre méthode plus ambitieuse, appelée "synthèse", est au cœur de ce projet de recherche : elle consiste à proposer des techniques (modèles, algorithmes, outils informatiques) qui permettent de synthétiser un système correct, au regard des spécifications demandées et de son environnement, à l’aide d’un algorithme. Cette technique vise donc à permettre la construction automatisée de systèmes corrects à partir de leurs spécifications.

Cette nouvelle méthode innovante est au cœur de ce projet ARC, mené par l’équipe des "Méthodes formelles et vérification" (Département d'Informatique, Faculté des Sciences).

Porte-parole: Jean-François Raskin, Méthodes formelles et vérification. 

APOL1 - SRA interplay

Depuis de nombreuses années, le Laboratoire de Parasitologie moléculaire étudie les mécanismes d’adaptation du trypanosome, parasite provoquant la maladie du sommeil chez l’homme et le nagana chez le bétail. Les précédents travaux du laboratoire ont démontré que la lipoprotéine APOL1, présente dans le sérum humain, pouvait éliminer les trypanosomes. Cependant une sous-espèce de trypanosome, T. b. rhodesiense, a trouvé le moyen de neutraliser les effets de l’APOL1 grâce à une protéine appelée SRA.

David Pérez-Morga, Etienne Pays et ses collaborateurs tentent aujourd’hui de mieux comprendre les relations entre les APOLs et SRA. Ils ont remarqué que la structure des APOLS était similaire à celles de la famille des BCL2, protéines humaines induisant l’apoptose. Leur hypothèse est que les APOLs interviennent dans la mort cellulaire programmée de certaines cellules humaines lors de conditions inflammatoires, observées notamment lors d’un contact avec un pathogène. Des premiers résultats du laboratoire vont en ce sens.

Ils ont aussi découvert que des formes mutantes d’APOL1, permettant à certaines populations Ouest africaines de résister à l’infection par le T. b. rhodesiense, déclencheraient la nécrose de certaines cellules rénales. Ceci entraine des maladies rénales chroniques, fréquemment observées dans ces populations.

Porte-parole: David-Pérez-Morga, Laboratoire de Parasitologie Moléculaire. 

Studies of transcriptional mechanisms regulating HIV-1 post-integration latency: implications for innovative therapeutic strategies

Les patients infectés par le virus de l’immunodéficience humaine de type 1 (VIH-1) doivent suivre leur multi-thérapie antirétrovirale en continu pour garder le virus sous contrôle. En effet, une faible proportion des cellules infectées par le VIH-1 n’expriment pas de virus et échappent à la multi-thérapie et au système immunitaire de l’hôte. Ces cellules réservoirs sont responsables du rebond de la virémie dès l’interruption du traitement. La réactivation délibérée de ces réservoirs chez un patient sous traitement est donc une stratégie thérapeutique prometteuse, qui permettrait d’éliminer le virus et/ou de contrôler à long terme la virémie en absence de traitement.

Cette approche a mené à la recherche d’agents capables de réactiver les cellules infectées de manière latente (latency reversing agents, LRAs). Les premières expériences ex vivo de réactivation ont cependant mis en évidence des variations inter-patients qualitatives et quantitatives dans la réactivation par différents LRAs des cellules infectées. Des observations qui soulignent encore une fois la complexité de la régulation du virus VIH.

L’équipe de Carine Van Lint et le Service des Maladies Infectieuses du Prof. Stéphane De Wit (Hôpital Saint-Pierre) étudieront en collaboration le phénomène de latence du VIH. Un processus compliqué qui est contrôlé aux niveaux protéique et transcriptionnel, mais aussi par des modifications épigénétiques et par l’organisation de la chromatine des virus intégrés dans le génome cellulaire. Une meilleure compréhension des mécanismes moléculaires de la latence du VIH-1 est critique pour identifier de nouvelles cibles thérapeutiques.

Porte-parole: Carine Van Lint, Service de Virologie moléculaire.

Mis à jour le 19 octobre 2021