Advanced search in
Research products
arrow_drop_down
Searching FieldsTerms
Any field
arrow_drop_down
includes
arrow_drop_down
Include:
218 Research products, page 1 of 22

  • Doctoral thesis
  • IT
  • Hyper Article en Ligne
  • Mémoires en Sciences de l'Information et de la Communication

10
arrow_drop_down
Relevance
arrow_drop_down
  • Open Access French
    Authors: 
    Bonaciu, M.;
    Publisher: HAL CCSD
    Country: France

    Ces dernières années, la complexité des puces a augmenté exponentiellement. La possibilité d'intégrer plusieurs processeurs sur la même puce représente un gain important, et amène au concept du système multiprocesseur hétérogène sur puce (MP-SoC). Cet aspect a permis d'amplifier de manière significative la puissance de calcule fourni par ce type de puce. Il est même devenu possible d'intégrer des applications complexes sur une seule puce, applications qui nécessitent beaucoup de calculs, de communications et de mémoires. Dans cette catégorie, on peut trouver les applications de traitement vidéo MPEG4. Pour obtenir de bonnes implémentations en termes de performances, (1) un algorithme de l'encodeur MPEG4 flexible a été réalisé, pouvant être facilement adapté pour différents types de paramètres d'algorithme, mais également différents niveaux de parallélisme/pipeline. Puis, (2) une modélisation flexible a été utilisée, pour représenter différents models d'algorithme et d'architecture contenant 2 SMP. Utilisant ces models, (3) une exploration d'algorithme et d'architecture à un haut niveau d'abstraction a été proposé, en vue de trouver les configurations correctes d'algorithme et d'architectures, nécessaires pour différents applications. A partir de ces configurations, (4) un flot automatique d'implémentation d'architectures RTL a été utilisé. En utilisant ces aspects, l'encodeur MPEG4 a été implémenté avec succès dans plusieurs architectures spécifiques MP-SoC au niveau RTL. La même approche a été utilisée pour l'implémentation de l'encodeur MPEG4 sur une architecture quadri-processeurs existante, pour différentes résolutions, frame-rate, bitrates, etc. During the last years, the chip's complexity increased exponentially. The possibility to integrate multiple processors into the same chip represents an important gain, at it leads to the concept of Multi-Processors Systems on Chip (MP-SoC). This aspect allowed boosting the computational power offered by the chips. Thus, it became possible to integrate complex applications into a chip, applications that requires a large amount of computations, communications and memory. In this category, we can find the video treatment applications, like the MPEG4. To obtain good implementation results in term of performance, (1) a flexible MPEG4 encoder algorithm was developed, which can be easily adapted for different algorithm parameters, and different parallel/pipeline execution schemes. After this, (2) a flexible modeling was used, in order to represent different algorithm/architecture models containing 2 SMPs. Using these models, (3) a high-level algorithm/architecture exploration method was used, to find the optimal algorithm/architecture configurations required by different applications (i.e. mobile telecom). Using these parameters, (4) an automatic flow was used, to obtain final RTL architectures containing the MPEG4 encoder. Using all these aspects, the MPEG4 encoder was successfully implemented into multiple specific RTL architectures. Additionally, using the same approach, the MPEG4 encoder was implemented on an existing quadric-processors platform, for different video resolutions, frame rates, bitrates, etc.

  • Open Access English
    Authors: 
    Bonincontro, Danilo;
    Publisher: HAL CCSD
    Countries: France, Italy

    The depletion of fossil-derived resources and the need to decrease the emission of green-house gases led scientists to look for sustainable materials to replace the already existing fossil-derived ones. For instance, 2,5-furandicarboxylic acid (FDCA) has been pointed out as the bioderived counterpart of terephthalic acid for the synthesis of polyesters. In fact, FDCA could be obtained by means of selective oxidation of 5-hydroxymethylfurfural (HMF), a bio-derived platform molecule produced by glucose hydrolysis. This reaction is known to be catalyzed by supported metal nanoparticle systems in presence of inorganic bases under batch conditions. This work deals with the development of catalytic systems able to perform the base-free HMF oxidation, since the possibility to circumvent base addition leads more sustainable processes. In particular, two different sets of catalytic systems have been studied: mono- and bimetallic Au and Pd nanoparticles on nano-sized NiO, and mono- and bimetallic Pt/Sn systems on titania, prepared via cluster precursor decomposition. Another topic that will be discussed in this thesis focuses on the development of catalytically active polymeric membranes obtained via electrospinning and their application as catalytic system for HMF oxidation either under basic and neutral aqueous conditions. In details, polyacrylonitrile and nylon have been tested as electrospun polymeric matrixes for the embedding of Au-based nanoparticles and Pt clusters; L'épuisement progressif des matières premières d'origine fossile et la nécessité de réduire les émissions de gaz à effets de serre ont conduit la communauté scientifique à rechercher de nouveaux matériaux dont la production ne dépendra pas de ressources non renouvelables. Dans un autre temps ces matériaux pourront déjà être introduits sur le marché afin de substituer des produits déjà existant qui proviennent de matières premières fossiles. Par exemple, l'acide 2,5-furandicarboxylique (FDCA) obtenu par valorisation de la biomasse lignocellulosique est un potentiel substituant de l'acide téréphtalique actuellement utilisé pour la production de polyesters. En effet, le FDCA peut être obtenu par oxydation sélective du 5-hydroxyméthylfurfural (HMF) synthétisé à partir de la biomasse lignocellulosique. Ainsi, ce travail de thèse peut être défini par deux problématiques principales : (1) Le développement de catalyseurs pour l'oxydation de HMF en FDCA sans utiliser de bases inorganiques et (2) Développement de membranes catalytiques de polymères pour la future adaptation du procédé d'oxydation en réacteur à flux continu. Pour ce qui concerne l'oxydation de HMF dans des conditions neutres, une première étude s'est intéressée à la possibilité d'utiliser de l'oxyde de nickel nanométrique comme support pour des nanoparticules. Ensuite, la possibilité d'utiliser des nanoparticules de Pt supportées sur du TiO2 obtenues par décomposition contrôlée de clusters carbonyliques a été étudiée. Ainsi, des membranes de polymère obtenues par électrospinning, contenant les nanoparticules métalliques étudiées précédemment, ont été appliquées comme système catalytique pour l'oxydation du HMF

  • Open Access English
    Authors: 
    Farina, Giovanni;
    Publisher: HAL CCSD
    Countries: France, France, Italy

    Reliable communication is a fundamental primitive in distributed systems prone to Byzantine (i.e. arbitrary, and possibly malicious) failures to guarantee the integrity, delivery, and authorship of the messages exchanged between processes. Its practical adoption strongly depends on the system assumptions. Several solutions have been proposed so far in the literature implementing such a primitive, but some lack in scalability and/or demand topological network conditions computationally hard to be verified. This thesis aims to investigate and address some of the open problems and challenges implementing such a communication primitive. Specifically, we analyze how a reliable communication primitive can be implemented in 1) a static distributed system where a subset of processes is compromised, 2) a dynamic distributed system where part of the processes is Byzantine faulty, and 3) a static distributed system where every process can be compromised and recover.We define several more efficient protocols and we characterize alternative network conditions guaranteeing their correctness.; Une communication fiable est une primitive fondamentale dans les systèmes distribués sujets aux pannes Byzantines (c'est-à-dire arbitraires et éventuellement malveillants) pour garantir l'intégrité, l’authenticité et la livraison des messages échangés entre les processus. Son adoption pratique dépend fortement des hypothèses du système. Plusieurs solutions ont été proposées jusqu'à présent dans la littérature mettant en œuvre une telle primitive, mais certaines manquent d'évolutivité et / ou exigent des conditions de réseau topologiques difficiles à vérifier.Cette thèse vise à étudier et à résoudre certains des problèmes et défis ouverts implémentant une telle primitive de communication. Plus précisément, nous analysons comment une primitive de communication fiable peut être implémentée dans 1) un système distribué statique où un sous-ensemble de processus est compromis, 2) un système distribué dynamique où une partie des processus est Byzantiné, et 3) un système distribué statique où chaque processus peut être compromis et récupérer.Nous définissons plusieurs protocoles plus efficaces et nous caractérisons des conditions de réseau alternatives garantissant leur exactitude.

  • Publication . Other literature type . Doctoral thesis . 2016
    Open Access French
    Authors: 
    CAMPANELLA CASAS, Lucia;
    Publisher: Università degli studi di Bergamo
    Country: Italy

    This research focuses on the study of a corpus composed of French literary works, as well as those from the Latin American region of Río de la Plata, ranging from the mid-nineteenth century to the year 2015. The study is also based on the analysis of some iconographic images, in order to analyse the image of the housemaid’s character that emerges in the convergence between literature and visual arts. From a comparative perspective, the work explores the forms which represent this figure from a stylistic, thematic and political point of view. Adjacencies between the two national corpora show not only the existence of exchanges between the Río de la Plata and France regarding the aesthetic and political debate, but also the existence of a common distribution of the sensible. The study establishes a periodization of the character representation modes, from the character’s access to the main role, through to the analysis of the literary construction of her voice, her course of life, her intimacy and the view she has of the world. This research is based on the belief that domestic service is a total social fact, whose analysis leads to “a radical ontological questioning”. This leaves a mark on the character and on the plot that develops around her. As a result, the authors capture an image of political power. Following on from a tradition of studies that are made in the long term and also taking into account a certain "trans-nationalisation" of the character, we intend to promote the study of housemaids and domestic service in the field of comparative literature.; La recherche se focalise sur l’étude d’un corpus composé d’œuvres littéraires françaises et de la région du Río de la Plata (Amérique du Sud), qui vont de la seconde moitié du XIXe siècle jusqu’à 2015. L’étude s’appuie aussi sur l’analyse d’images iconographiques, pour analyser l’image du personnage de l’employée domestique qui se dégage dans la convergence entre la littérature et les arts plastiques. Dans une perspective comparatiste, le travail explore les formes de la représentation de cette figure d’un point de vue stylistique, thématique et politique. Les contiguïtés entre les deux corpus nationaux montrent non seulement l’existence d’une dynamique d’échanges entre le Río de la Plata et la France en ce qui concerne les débats esthétiques et politiques, mais aussi l’existence d’un partage du sensible commun. L’étude établit une périodisation des modes de représentation du personnage, depuis son accès au rôle principal, à travers l’analyse de la construction littéraire de sa voix, de son parcours de vie, de son intimité et du regard qu’il porte sur le monde. Cette recherche se fonde sur la conviction que la domesticité est un fait social total, dont l’analyse mène à une radicale interrogation ontologique. Cela marque de son empreinte le personnage et les rapports qui se tissent autour de lui et résulte dans sa puissance politique, dont les auteurs se sont emparés. Finalement, et suivant une tradition d’études qui se font sur la longue durée et en prenant compte d’une certaine « transnationalisation » de la figure, nous entendons encourager l’étude de la domestique dans le domaine de la littérature comparée.

  • Open Access English
    Authors: 
    Cardillo, Giulia;
    Publisher: HAL CCSD
    Countries: France, Italy

    Dans cette thèse, trois modèles mathématiques ont été proposés, avec l’objectif de modéliser autant d’aspects complexes de la biomédecine, dans lesquels la dynamique des fluides du système joue un rôle fondamental: i) les interactions fluide-structure entre la pulsatilité du liquide céphalo-rachidien et la moelle épinière (modélisation analytique); ii) dispersion efficace d’un médicament dans l’espace sous-arachnoïdien (modélisation numérique); et iii) la formation et l’évolution d’un thrombus au sein du système cardiovasculaire (modélisation numérique).Le liquide céphalorachidien est un fluide aqueux qui entoure le cerveau et la moelle épinière afin de les protéger. Une connaissance détaillée de la circulation du liquide céphalorachidien et de son interaction avec les tissus peut être importante dans l’étude de la pathogenèse de maladies neurologiques graves, telles que la syringomyélie, un trouble qui implique la formation de cavités remplies de liquide (seringues) dans la moelle épinière.Par ailleurs, dans certains cas, des analgésiques - ainsi que des médicaments pour le traitement de maladies graves telles que les tumeurs et les infections du liquide céphalorachidien - doivent être administrés directement dans le liquide céphalorachidien. L’importance de connaître et de décrire l’écoulement du liquide céphalorachidien, ses interactions avec les tissus environnants et les phénomènes de transport qui y sont liés devient claire. Dans ce contexte, nous avons proposé: un modèle capable de décrire les interactions du liquide céphalo-rachidien avec la moelle épinière, considérant cela, pour la première fois, comme un milieu poreux imprégné de différents fluides (sang capillaire et veineux et liquide céphalo-rachidien); et un modèle capable d’évaluer le transport d’un médicament dans l’espace sousarachnoïdien, une cavité annulaire remplie de liquide céphalo-rachidien qui entoure la moelle épinière.Avec le troisième modèle proposé, nous entrons dans le système cardiovasculaire.Dans le monde entière, les maladies cardiovasculaires sont la cause principale de mortalité. Parmi ceux-ci, nous trouvons la thrombose, une condition qui implique la formation d’un caillot à l’intérieur d’un vaisseau sanguin, qui peut causer sa occlusion. À cet égard, un modèle numérique a été développé qui étudie la formation et l’évolution des thrombus, en considérant simultanément les aspects chimico-biomécaniques et dynamiques des fluides du problème. Dans le modèle proposé pour la première fois, l'importance du rôle joué par les gradients de contrainte de cisaillement dans le processus de thrombogenèse est pris en compte.Les modèles sélectionnés ont fourni des résultats intéressants. Tout d’abord, l’étude des interactions fluide-structure entre le liquide céphalo-rachidien et la moelle épinière a mis en évidence es conditions pouvant induire l’apparition de la syringomyélie. Il a été observé comment la déviation des valeurs physiologiques du module d’Young de la moelle épinière, les pressions capillaires dans l’interface moelle-espace sousarachnoïdien et la perméabilité des compartiments capillaire et veineux, conduisent à la formation de seringues.Le modèle de calcul pour l’évaluation de la dispersion pharmacologique dans l’espace sousarachnoïdien a permis une estimation quantitatif de la diffusivité effective du médicament, une quantité qui peut aider à l’optimisation des protocoles d’injections intrathécales.Le modèle de thrombogenèse a fourni un instrument capable d’étudier quantitativement l’évolution des dépôts de plaquettes dans la circulation sanguine. En particulier, les résultats ont fourni des informations importantes sur la nécessité de considérer le rôle de l’activation mécanique et de l’agrégation des plaquettes aux côtés de la substance chimique. In the present thesis, three mathematical models are described. Three different biomedical issues, where fluid dynamical aspects are of paramount importance, are modeled: i) Fluid-structure interactions between cerebro-spinal fluid pulsatility and the spinal cord (analytical modeling); ii) Enhanced dispersion of a drug in the subarachnoid space (numerical modeling); and iii) Thrombus formation and evolution in the cardiovascular system (numerical modeling).The cerebrospinal fluid (CSF) is a liquid that surrounds and protects the brain and the spinal cord. Insights into the functioning of cerebrospinal fluid are expected to reveal the pathogenesis of severe neurological diseases, such as syringomyelia that involves the formation of fluid-filled cavities (syrinxes) in the spinal cord.Furthermore, in some cases, analgesic drugs -- as well drugs for treatments of serious diseases such as cancers and cerebrospinal fluid infections -- need to be delivered directly into the cerebrospinal fluid. This underscores the importance of knowing and describing cerebrospinal fluid flow, its interactions with the surrounding tissues and the transport phenomena related to it. In this framework, we have proposed: a model that describes the interactions of the cerebrospinal fluid with the spinal cord that is considered, for the first time, as a porous medium permeated by different fluids (capillary and venous blood and cerebrospinal fluid); and a model that evaluates drug transport within the cerebrospinal fluid-filled space around the spinal cord --namely the subarachnoid space--.The third model deals with the cardiovascular system. Cardiovascular diseases are the leading cause of death worldwide, among these diseases, thrombosis is a condition that involves the formation of a blood clot inside a blood vessel. A computational model that studies thrombus formation and evolution is developed, considering the chemical, bio-mechanical and fluid dynamical aspects of the problem in the same computational framework. In this model, the primary novelty is the introduction of the role of shear micro-gradients into the process of thrombogenesis.The developed models have provided several outcomes. First, the study of the fluid-structure interactions between cerebro-spinal fluid and the spinal cord has shed light on scenarios that may induce the occurrence of Syringomyelia. It was seen how the deviation from the physiological values of the Young modulus of the spinal cord, the capillary pressures at the SC-SAS interface and the permeability of blood networks can lead to syrinx formation.The computational model of the drug dispersion has allowed to quantitatively estimate the drug effective diffusivity, a feature that can aid the tuning of intrathecal delivery protocols.The comprehensive thrombus formation model has provided a quantification tool of the thrombotic deposition evolution in a blood vessel. In particular, the results have given insight into the importance of considering both mechanical and chemical activation and aggregation of platelets.

  • English
    Authors: 
    MAURY, Thibaut;
    Publisher: HAL CCSD
    Project: EC | COMPASS (679086)

    Several actors of or related to the European space industry, such as ArianeGroup and the European Space Agency (ESA), have identified life cycle assessment (according to ISO14040/44) as the most appropriate methodology to measure and minimise their environmental impact. Nevertheless, space systems deal with a strong particularity which adds new aspects considering the scope of the LCA framework. Space missions are the only human activity that crosses all segments of the atmosphere and stays “out” of the natural environment and ecosystems. Regarding space systems with a holistic approach, environmental impacts could occur not only in the conventional ecosphere but also in the outer space (i.e. the orbital environment).Consequently, the current scope of LCA studies should be broadened to take into account the on-orbit lifetime as well as the end-of-life disposal of the spacecraft. Yet, it is becoming a crucial point of the space mission design due to the future increase of the orbital population composed in a major part by space debris. In this way, LCA studies of space missions could indicate trade-offs not only between typical impact categories (toxicity and climate change for example) but also with regard to impacts generated in the orbital environment with a particular focus on space debris related impacts.Hence, the priority has been given to the integration of a new impact category called orbital space use in the life cycle impact assessment framework. To address the environmental burdens comprehensively in this new category, impact pathways linking elementary flows to environmental mechanisms (midpoint) and damages (endpoint) are developed within the Area-of-Protection ‘Natural resources’. Space debris is identified as the main stressor of the orbital environment. Thus, ‘characterisation factors’ are defined and calculated at midpoint level to assess the potential impact of a space mission on the orbital environment. The methodology is applied to a case study to prove its applicability: the potential impact of a theoretical space mission is addressed through the comparison of three disposal scenarios. Also, a first attempt regarding the characterisation of the endpoint damage is provided taking into account the economic externalities caused by space debris. Finally, remaining methodological challenges and perspectives for future work are provided.; L’analyse de cycle de vie environnementale (ACV), d’après l’ISO 14040/44, a été identifiée par l’agence spatiale Européenne, ArianeGroup et plusieurs acteurs de l’industrie spatiale européenne comme la méthodologie la mieux adaptée pour réaliser l’évaluation environnementale des missions spatiales. Cependant, le secteur spatial est un domaine d’activité dont la particularité est de s’étendre au-delà des limites de l’environnement terrestre. Ainsi, s’il est possible d’évaluer les impacts sur l’environnement classique via la méthodologie ACV, les impacts générés sur l’environnement orbital ne sont aujourd’hui pas considérés dans son cadre de référence.Par conséquent, il s’agit ici d’étendre le champ des études ACV dans le domaine du spatial afin de caractériser les étapes du cycle de vie ayant lieu en orbite, c’est-à-dire la phase d’usage pendant la mission spatiale et la phase de fin de vie (ou Post-Mission Disposal). L’anticipation de cette dernière est devenue une étape cruciale dans la conception des missions spatiales du fait des règlementations visant à limiter la prolifération des débris spatiaux. En effet, seulement 6% de la population en orbite autour de la Terre sont des satellites actifs, le reste étant considéré comme des débris, résultat des missions et activités spatiales passées. Etant donné cet enjeu de durabilité majeur pour l'industrie spatiale, les études environnementales se doivent de mettre en évidence les transferts de pollution potentiels non seulement entre les impacts environnementaux classiques tels que Changement Climatique ou la Toxicité mais aussi ceux relatifs à l’environnement orbital, au premier rang desquels figurent les débris spatiaux.Afin de caractériser cet impact sur l’environnement orbital, nous proposons de définir une nouvelle catégorie d’impact en ACV dénommée ‘Orbital Space Use’. La conformité avec le cadre de référence de l’ACV est assurée au travers de la construction de chaines de cause-à-effet (ou impact pathways) reliant les flux élémentaires du système d’étude aux mécanismes environnementaux (indicateur midpoint) et au dommage final (indicateur endpoint) au sein de l’Aire de Protection ‘Ressources Naturelles’. En effet, les orbites proches de la Terre qui supportent les activités spatiales sont considérées à ce titre comme une ressource pouvant être impactée par des ‘stresseurs’. Les débris spatiaux sont aujourd’hui identifiés comme les principaux ‘stresseurs’ vis-à-vis de l’accès et de la pleine utilisation de la ressource orbitale. Ainsi, le développement d’un modèle de caractérisation a été entrepris. Il permet d’évaluer l’impact potentiel d’une mission spatiale sur la population des débris déjà présente en orbite. Les facteurs de caractérisation obtenus sont appliqués à un cas d’étude comparant trois scénarios de fin de vie différents dans le but de prouver l’applicabilité du modèle. En outre, une première approche s’intéressant à la quantification des externalités économiques négatives engendrées par la prolifération des débris est développée. Elle constitue une étape préliminaire en vue d’un développement d’une catégorie de dommage dite ‘endpoint’. Enfin, les challenges méthodologiques restants et les potentiels développements complémentaires sont abordés.

  • Open Access English
    Authors: 
    Folena, Giampaolo;
    Publisher: HAL CCSD
    Countries: Italy, France

    The main driving notion behind my thesis research is to explore the connection between the dynamics and the static in a prototypical model of glass transition, i.e. the mean-field p-spin spherical model. This model was introduced more than 30 years ago with the purpose of offering a simplified model that had the same equilibrium dynamical slowing down, theoretically described a few years earlier by mode-coupling theory. Over the years, the p-spin spherical model has shown to be a very meaningful and promising model, capable of describing many equilibrium and out-of-equilibrium aspects of glasses. Eventually it came to be considered as a prototypical model of glassiness. Having such a simple but rich reference model allows a coherent examination of a subject, in our case the glass behavior, which presents a very intricate phenomenology. Thus, the main purpose is not to have a quantitative prediction of the phenomena, but rather a broader view with a strong analytical basis. In this sense the p-spin model has assumed a role for disordered systems which is comparable to that of the Ising model for understanding ferromagnetism. My research is a natural path to reinforce our knowledge and comprehension of this model. In the first chapter, we provide a general introduction to supercooled liquids and their phenomenology. The introduction is brief, and the main goal is to give a general overview, mainly from the point of view of the Random First Order Transition, while considering other perspectives on the subject and attempting to provide a ‘fair' starting bibliography to whomever wants to study supercooled liquids. The last section focuses on the Potential Energy Landscape paradigm (PEL), which in my view, gives a very solid modelization of glassy phenomenology, and shares many aspects with mean-field analysis. In the second chapter, the p-spin spherical model is presented in details. The equilibrium analysis is performed with the replica formalism, with a focus on the ultrametric structure. Then, different tools to study its free energy landscape are introduced: the TAP approach, the Franz-Parisi potential and the Monasson method. These three different ways of selecting states are carefully contrasted and their analogies and differences are underlined, in particular highlighting the different behavior played by pure and mixed p-spin models. Then the equilibrium dynamics is discussed, and a selection of classical results on the dynamical slowing down are analyzed by numerical integration. To conclude, the out-of-equilibrium dynamics in the two temperature protocol is analyzed. This shows two different regimes, the state following and the aging. For both, an asymptotic analysis and a numerical integration are performed and compared. A strong emphasis is given to the possibility of describing the asymptotic dynamics with a static potential. The third chapter presents all the new results that emerged during my research. The study focuses on the two temperature protocol, starting in equilibrium and setting the second temperature to zero, which corresponds to a gradient descent dynamics. This protocol is especially interesting because it corresponds to the search of inherent structure of the energy landscape. The integrated dynamics, depending on the starting temperature, shows three different regimes, one that corresponds to a new phase, which shows aging together with memory of the initial condition. This new phase is not present in pure p-spin models, only in mixed ones. In order to theoretically describe this new phase, a constrained analysis of the stationary points of the energy landscape is performed. A numerical simulation of the system is also presented to confirm this new scenario.; L'objectif principal de ma thèse est d’explorer le lien entre la dynamique et la statique dans un modèle prototypique de transition vitreuse, i.e. le modèle à champ moyen du p-spin sphérique. Ce modèle a été introduit il y a plus de 30 ans dans le but d’offrir un modèle simplifié ayant, à l'équilibre, le même ralentissement dynamique décrit théoriquement quelques années plus tôt par la théorie des modes couplés. Au fil des ans, le modèle du p-spin sphérique s’est révélé être un modèle très significatif et prometteur, capable de décrire de nombreux aspects d’équilibre et hors équilibre des verres. Avoir un tel modèle de référence simple mais riche permet un examen cohérent d’un sujet, dans notre cas le comportement du verre qui présente une phénoménologie très complexe. Ainsi, le but principal n’est pas d’avoir une prédiction quantitative des phénomènes, mais plutôt une vue plus large avec une forte base analytique. En ce sens, le modèle du p-spin a assumé un rôle pour les systèmes désordonnés qui est comparable à celui du modèle Ising pour comprendre le ferromagnétisme. Ma recherche est une voie naturelle pour renforcer notre connaissance et notre compréhension de ce modèle. Dans le premier chapitre, nous donnons une introduction générale aux liquides surfondus et leur phénoménologie. L’introduction est brève, et l’objectif principal est de donner un aperçu général, principalement du point de vue de la transition aléatoire du premier ordre, tout en tenant compte d’autres points de vue sur le sujet et en essayant de fournir une « bonne » bibliographie de départ à quiconque veut étudier les liquides surfondus. La dernière section se concentre sur le paradigme du surface d'énergie potentielle (PEL), qui, à mon avis, donne une modélisation très solide de la phénoménologie vitreuse, et partage de nombreux aspects avec l’analyse du champ moyen. Dans le deuxième chapitre, le modèle du p-spin sphérique est présenté en détail. L’analyse d’équilibre est réalisée avec le formalisme des répliques, avec un accent sur la structure ultramétrique. Ensuite, différents outils pour étudier son paysage d’énergie libre sont présentés: l’approche TAP, le potentiel de Franz-Parisi et la méthode de Monasson. Ces trois manières différentes de sélectionner les états sont soigneusement contrastées et leurs analogies et différences sont soulignées, en particulier le comportement différent joué par les modèles du p-spin purs et mixtes. Ensuite, la dynamique d’équilibre est discutée, et une sélection de résultats classiques sur le ralentissement dynamique sont analysés par intégration numérique. Pour conclure, la dynamique hors équilibre dans le protocole à deux températures est analysée. Cela montre deux régimes différents, des états suivables et du vieillissement. Pour les deux, une analyse asymptotique et une intégration numérique sont effectuées et comparées. L’accent est mis sur la possibilité de décrire la dynamique asymptotique avec un potentiel statique. Le troisième chapitre présente tous les nouveaux résultats qui ont émergé au cours de mes recherches. L’étude se concentre sur le protocole à deux températures, commençant à l’équilibre et fixant la deuxième température à zéro, ce qui correspond à une dynamique de descente du gradient. Ce protocole est particulièrement intéressant car il correspond à la recherche de la structure inhérente du paysage énergétique. La dynamique intégrée, en fonction de la température de départ, montre trois régimes différents. Une de ceux-ci corresponde à une nouvelle phase, qui présente le vieillissement avec la mémoire de la condition initiale. Cette nouvelle phase n’est pas présente dans les modèles du p-spin pure, seulement dans les modèles mixtes. Afin de décrire théoriquement cette nouvelle phase, une analyse des points stationnaires du paysage énergétique est effectuée. Une simulation numérique du système est également présentée pour confirmer ce nouveau scénario.

  • Open Access English
    Authors: 
    Bocco, Andrea;
    Publisher: HAL CCSD
    Country: France

    Most of the Floating-Point (FP) hardware units support the formats and the operations specified in the IEEE 754 standard. These formats have fixed bit-length. They are defined on 16, 32, 64, and 128 bits. However, some applications, such as linear system solvers and computational geometry, benefit from different formats which can express FP numbers on different sizes and different tradeoffs among the exponent and the mantissa fields. The class of Variable Precision (VP) formats meets these requirements. This research proposes a VP FP computing system based on three computation layers. The external layer supports legacy IEEE formats for input and output variables. The internal layer uses variable-length internal registers for inner loop multiply-add. Finally, an intermediate layer supports loads and stores of intermediate results to cache memory without losing precision, with a dynamically adjustable VP format. The VP unit exploits the UNUM type I FP format and proposes solutions to address some of its pitfalls, such as the variable latency of the internal operation and the variable memory footprint of the intermediate variables. Unlike IEEE 754, in UNUM type I the size of a number is stored within its representation. The unit implements a fully pipelined architecture, and it supports up to 512 bits of precision, internally and in memory, for both interval and scalar computing. The user can configure the storage format and the internal computing precision at 8-bit and 64-bit granularity This system is integrated as a RISC-V coprocessor. The system has been prototyped on an FPGA (Field-Programmable Gate Array) platform and also synthesized for a 28nm FDSOI process technology. The respective working frequencies of FPGA and ASIC implementations are 50MHz and 600MHz. Synthesis results show that the estimated chip area is 1.5mm2, and the estimated power consumption is 95mW. The experiments emulated in an FPGA environment show that the latency and the computation accuracy of this system scale linearly with the memory format length set by the user. In cases where legacy IEEE-754 formats do not converge, this architecture can achieve up to 130 decimal digits of precision, increasing the chances of obtaining output data with an accuracy similar to that of the input data. This high accuracy opens the possibility to use direct methods, which are more sensitive to computational error, instead of iterative methods, which always converge. However, their latency is ten times higher than the direct ones. Compared to low precision FP formats, in iterative methods, the usage of high precision VP formats helps to drastically reduce the number of iterations required by the iterative algorithm to converge, reducing the application latency of up to 50%. Compared with the MPFR software library, the proposed unit achieves speedups between 3.5x and 18x, with comparable accuracy. La plupart des unités matérielles arithmétiques à virgule flottante (en anglais Floating-Point, FP) prennent en charge les formats et les opérations spécifiés dans le standard IEEE 754. Ces formats ont une longueur en bits fixe et sont définis sur 16, 32, 64 et 128 bits. Cependant, certaines applications, par exemple les solveurs de systèmes linéaires, ou encore la géométrie computationnelle, pourraient bénéficier de formats différents pour représenter les flottants sur différentes tailles, avec différents compromis entre les champs des exposant et mantisse. La classe des formats de précision variable (en anglais Variable Precision, VP) répond à ces exigences. L'objectif de cette recherche est de proposer un système de calcul VP capable d'augmenter la précision ou l'efficacité de calcul des problèmes en offrant une granularité plus fine des opérations FP. Ce travail propose un système de calcul FP à VP basé sur trois couches de calcul. La couche externe prend en charge les formats IEEE existants pour les variables d'entrée et de sortie. La couche interne utilise des registres de longueur variable pour les opérations de multiplication-addition à haute précision. Enfin, une couche intermédiaire prend en charge le chargement et le stockage des résultats intermédiaires dans la mémoire cache sans perte de précision, avec un format VP réglable dynamiquement. Le support des formats différents entre la représentation interne et le stockage en mémoire proche permets d'envisager des "grands vecteurs" en VP avec la possibilité d’avoir une haute précision de calcul dans la couche interne. L'unité à VP exploite le format FP UNUM de type I, en proposant des solutions pour remédier à certains de ses difficultés intrinsèques, telles que la latence variable de l'opération interne et l'empreinte mémoire variable des variables intermédiaires. Contrairement aux formats définis par IEEE 754, dans l'UNUM de type I, la taille d'un nombre est stockée dans la représentation elle-même. Ce travail propose une architecture de jeu d'instructions pour programmer le système de calcul VP qui suit la structure des couches de calcul susmentionnée. L'objectif de cette ISA est d'établir une séparation claire entre le format de la mémoire et celui à l'intérieur du coprocesseur. Avec cette ISA, le programmeur peut écrire des programmes VP de telle sorte que les instructions assembleur générées soient décorrélées de la taille et des formats des variables du programme. Cette décorrélation se fait en stockant les informations sur la taille, la précision et le format des variables du programme dans des registres d'état dédiés, à l'intérieur de l'unité VP. Ces registres d’état sont utilisés par une unité de chargement et de stockage (Load and Store Unit, LSU), étroitement couplée à l'unité de calcul VP, qui prend en charge la conversion des données entre les couches de calcul.

  • Open Access
    Authors: 
    Benvegnù, Agostino;
    Countries: Italy, France

    GaN-based high electron mobility transistors (HEMTs) are promising candidates for future microwave equipment, such as new solid state power amplifiers (SSPAs), thanks to their excellent performance. A first demonstration of GaN-MMIC transmitter has been developed and put on board the PROBA-V mission. But this technology still suffers from the trapping phenomena, principally due to lattice defects. Thus, the aim of this research is to investigate the trapping effects and the reliability aspects of the GH50 power transistors for C-band applications. A new trap investigation protocol to obtain a complete overview of trap behavior from DC to radio-frequency operation modes, based on combined pulsed I/V measurements, DC and RF drain current measurements, and low-frequency dispersion measurements, is proposed. Furthermore, a nonlinear electro-thermal AlGaN/GaN model with a new additive thermal-trap model including the dynamic behavior of these trap states and their associated temperature variations is presented, in order to correctly predict the RF performance during real RF operating conditions. Finally, an advanced time-domain methodology is presented in order to investigate the device’s reliability and to determine its safe operating area. This methodology is based on the continual monitoring of the RF waveforms and DC parameters under overdrive conditions in order to assess the degradation of the transistor characteristics in the RF power amplifier.; Les transistors à haute mobilité d’électrons (HEMTs) en nitrure de gallium (GaN) s’affirment comme les candidats prometteurs pour les futurs équipements à micro-ondes - tels que les amplificateurs de puissance à état solide (SSPA), grâce à leurs excellentes performances. Une première démonstration d'émetteur en technologie GaN-MMIC a été développée et embarquée dans la mission spatiale PROBA-V. Mais cette technologie souffre encore des effets de pièges par des défauts présents au sein de la structure. L’objectif de ce travail est donc l'étude d’effets de pièges et des aspects de fiabilité des transistors de puissance GH50 pour des applications en bande C. Un protocole d’investigation des phénomènes de pièges est présenté, qui permet l’étude des dynamiques des effets de pièges du mode de fonctionnement DC au mode de fonctionnement radiofréquence, basé sur la combinaison des mesures IV impulsionnelles, des mesures de transitoires du courant de drain avec des impulsions DC et RF et des mesures de paramètres [S] en basse fréquence. Un modèle de HEMT AlGaN/GaN non-linéaire électrothermique est présenté, incluant un nouveau modèle thermique de pièges restituant le comportement dynamique de ces pièges et leurs variations en température afin de prédire correctement les performances en conditions réelles de fonctionnement RF. Enfin, une méthodologie temporelle pour l’évaluation de la fiabilité et de limites réelles d'utilisation de transistors dans l'amplificateur de puissance RF en régime d’overdrive (très forte compression), basée sur la mesure monitorée de Formes d'Onde Temporelles (FOT), est proposée.

  • Open Access English
    Authors: 
    Mazzoleni, Antonio;
    Publisher: HAL CCSD
    Countries: France, Italy, France

    The main purpose of this thesis was to develop peptide probes to detect and isolate specific and high affinity antibodies from sera of patients suffering from multiple sclerosis (MS). We selected a di-glucosylated adhesin HMW1 peptide as the shortest sequence up to now able to compete with the highest affinity with anti-N(Glc) IgM binding. 40 kDa dextran was modified with propargyl groups and used as a scaffold to conjugate by CuAAC the di-glucosylated peptide. This novel polymeric structure was proven to dramatically increase binding potency of IgGs and IgMs in MS sera. Abs from a representative MS serum, were successfully purified on a sepharose resin specifically modified with the adhesin peptide-dextran conjugate, as confirmed by ELISA. This result appears promising as a proof-of-concept of the selective removal of circulating autoantibodies (possibly perpetuating nonself recognition) that could likely lead to develop a specific apheresis-based device.; Le but principal de ce travail de thèse a été de développer des sondes peptidiques pour détecter et isoler des auto-anticorps spécifiques à haute affinité à partir du sérum de patients souffrant de sclérose en plaques (SEP). Nous avons sélectionné un peptide di-glucosylé de l’adhésine HMW1 comme séquence minimale capable de détecter les anti-N(Glc) IgM. Ainsi, un dextrane de 40 kDa a été modifié avec des groupes propargyle et a été utilisé comme échafaudage pour conjuguer par CuAAC le peptide N-glucosylée. On a prouvé que ce nouveau polymère augmente considérablement la puissance de la liaison des IgG et IgM caractéristique de la forme de SEP que nous venons de caractériser. Les anticorps d'un sérum représentatif ont été purifiés avec succès, comme confirmé par test ELISA. Ce résultat semble prometteur en tant que preuve de concept de la possible déplétion sélective des auto-anticorps circulants dans la SEP, qui pourrait conduire à développer un dispositif thérapeutique spécifique basé sur aphérèse.

Advanced search in
Research products
arrow_drop_down
Searching FieldsTerms
Any field
arrow_drop_down
includes
arrow_drop_down
Include:
218 Research products, page 1 of 22
  • Open Access French
    Authors: 
    Bonaciu, M.;
    Publisher: HAL CCSD
    Country: France

    Ces dernières années, la complexité des puces a augmenté exponentiellement. La possibilité d'intégrer plusieurs processeurs sur la même puce représente un gain important, et amène au concept du système multiprocesseur hétérogène sur puce (MP-SoC). Cet aspect a permis d'amplifier de manière significative la puissance de calcule fourni par ce type de puce. Il est même devenu possible d'intégrer des applications complexes sur une seule puce, applications qui nécessitent beaucoup de calculs, de communications et de mémoires. Dans cette catégorie, on peut trouver les applications de traitement vidéo MPEG4. Pour obtenir de bonnes implémentations en termes de performances, (1) un algorithme de l'encodeur MPEG4 flexible a été réalisé, pouvant être facilement adapté pour différents types de paramètres d'algorithme, mais également différents niveaux de parallélisme/pipeline. Puis, (2) une modélisation flexible a été utilisée, pour représenter différents models d'algorithme et d'architecture contenant 2 SMP. Utilisant ces models, (3) une exploration d'algorithme et d'architecture à un haut niveau d'abstraction a été proposé, en vue de trouver les configurations correctes d'algorithme et d'architectures, nécessaires pour différents applications. A partir de ces configurations, (4) un flot automatique d'implémentation d'architectures RTL a été utilisé. En utilisant ces aspects, l'encodeur MPEG4 a été implémenté avec succès dans plusieurs architectures spécifiques MP-SoC au niveau RTL. La même approche a été utilisée pour l'implémentation de l'encodeur MPEG4 sur une architecture quadri-processeurs existante, pour différentes résolutions, frame-rate, bitrates, etc. During the last years, the chip's complexity increased exponentially. The possibility to integrate multiple processors into the same chip represents an important gain, at it leads to the concept of Multi-Processors Systems on Chip (MP-SoC). This aspect allowed boosting the computational power offered by the chips. Thus, it became possible to integrate complex applications into a chip, applications that requires a large amount of computations, communications and memory. In this category, we can find the video treatment applications, like the MPEG4. To obtain good implementation results in term of performance, (1) a flexible MPEG4 encoder algorithm was developed, which can be easily adapted for different algorithm parameters, and different parallel/pipeline execution schemes. After this, (2) a flexible modeling was used, in order to represent different algorithm/architecture models containing 2 SMPs. Using these models, (3) a high-level algorithm/architecture exploration method was used, to find the optimal algorithm/architecture configurations required by different applications (i.e. mobile telecom). Using these parameters, (4) an automatic flow was used, to obtain final RTL architectures containing the MPEG4 encoder. Using all these aspects, the MPEG4 encoder was successfully implemented into multiple specific RTL architectures. Additionally, using the same approach, the MPEG4 encoder was implemented on an existing quadric-processors platform, for different video resolutions, frame rates, bitrates, etc.

  • Open Access English
    Authors: 
    Bonincontro, Danilo;
    Publisher: HAL CCSD
    Countries: France, Italy

    The depletion of fossil-derived resources and the need to decrease the emission of green-house gases led scientists to look for sustainable materials to replace the already existing fossil-derived ones. For instance, 2,5-furandicarboxylic acid (FDCA) has been pointed out as the bioderived counterpart of terephthalic acid for the synthesis of polyesters. In fact, FDCA could be obtained by means of selective oxidation of 5-hydroxymethylfurfural (HMF), a bio-derived platform molecule produced by glucose hydrolysis. This reaction is known to be catalyzed by supported metal nanoparticle systems in presence of inorganic bases under batch conditions. This work deals with the development of catalytic systems able to perform the base-free HMF oxidation, since the possibility to circumvent base addition leads more sustainable processes. In particular, two different sets of catalytic systems have been studied: mono- and bimetallic Au and Pd nanoparticles on nano-sized NiO, and mono- and bimetallic Pt/Sn systems on titania, prepared via cluster precursor decomposition. Another topic that will be discussed in this thesis focuses on the development of catalytically active polymeric membranes obtained via electrospinning and their application as catalytic system for HMF oxidation either under basic and neutral aqueous conditions. In details, polyacrylonitrile and nylon have been tested as electrospun polymeric matrixes for the embedding of Au-based nanoparticles and Pt clusters; L'épuisement progressif des matières premières d'origine fossile et la nécessité de réduire les émissions de gaz à effets de serre ont conduit la communauté scientifique à rechercher de nouveaux matériaux dont la production ne dépendra pas de ressources non renouvelables. Dans un autre temps ces matériaux pourront déjà être introduits sur le marché afin de substituer des produits déjà existant qui proviennent de matières premières fossiles. Par exemple, l'acide 2,5-furandicarboxylique (FDCA) obtenu par valorisation de la biomasse lignocellulosique est un potentiel substituant de l'acide téréphtalique actuellement utilisé pour la production de polyesters. En effet, le FDCA peut être obtenu par oxydation sélective du 5-hydroxyméthylfurfural (HMF) synthétisé à partir de la biomasse lignocellulosique. Ainsi, ce travail de thèse peut être défini par deux problématiques principales : (1) Le développement de catalyseurs pour l'oxydation de HMF en FDCA sans utiliser de bases inorganiques et (2) Développement de membranes catalytiques de polymères pour la future adaptation du procédé d'oxydation en réacteur à flux continu. Pour ce qui concerne l'oxydation de HMF dans des conditions neutres, une première étude s'est intéressée à la possibilité d'utiliser de l'oxyde de nickel nanométrique comme support pour des nanoparticules. Ensuite, la possibilité d'utiliser des nanoparticules de Pt supportées sur du TiO2 obtenues par décomposition contrôlée de clusters carbonyliques a été étudiée. Ainsi, des membranes de polymère obtenues par électrospinning, contenant les nanoparticules métalliques étudiées précédemment, ont été appliquées comme système catalytique pour l'oxydation du HMF

  • Open Access English
    Authors: 
    Farina, Giovanni;
    Publisher: HAL CCSD
    Countries: France, France, Italy

    Reliable communication is a fundamental primitive in distributed systems prone to Byzantine (i.e. arbitrary, and possibly malicious) failures to guarantee the integrity, delivery, and authorship of the messages exchanged between processes. Its practical adoption strongly depends on the system assumptions. Several solutions have been proposed so far in the literature implementing such a primitive, but some lack in scalability and/or demand topological network conditions computationally hard to be verified. This thesis aims to investigate and address some of the open problems and challenges implementing such a communication primitive. Specifically, we analyze how a reliable communication primitive can be implemented in 1) a static distributed system where a subset of processes is compromised, 2) a dynamic distributed system where part of the processes is Byzantine faulty, and 3) a static distributed system where every process can be compromised and recover.We define several more efficient protocols and we characterize alternative network conditions guaranteeing their correctness.; Une communication fiable est une primitive fondamentale dans les systèmes distribués sujets aux pannes Byzantines (c'est-à-dire arbitraires et éventuellement malveillants) pour garantir l'intégrité, l’authenticité et la livraison des messages échangés entre les processus. Son adoption pratique dépend fortement des hypothèses du système. Plusieurs solutions ont été proposées jusqu'à présent dans la littérature mettant en œuvre une telle primitive, mais certaines manquent d'évolutivité et / ou exigent des conditions de réseau topologiques difficiles à vérifier.Cette thèse vise à étudier et à résoudre certains des problèmes et défis ouverts implémentant une telle primitive de communication. Plus précisément, nous analysons comment une primitive de communication fiable peut être implémentée dans 1) un système distribué statique où un sous-ensemble de processus est compromis, 2) un système distribué dynamique où une partie des processus est Byzantiné, et 3) un système distribué statique où chaque processus peut être compromis et récupérer.Nous définissons plusieurs protocoles plus efficaces et nous caractérisons des conditions de réseau alternatives garantissant leur exactitude.

  • Publication . Other literature type . Doctoral thesis . 2016
    Open Access French
    Authors: 
    CAMPANELLA CASAS, Lucia;
    Publisher: Università degli studi di Bergamo
    Country: Italy

    This research focuses on the study of a corpus composed of French literary works, as well as those from the Latin American region of Río de la Plata, ranging from the mid-nineteenth century to the year 2015. The study is also based on the analysis of some iconographic images, in order to analyse the image of the housemaid’s character that emerges in the convergence between literature and visual arts. From a comparative perspective, the work explores the forms which represent this figure from a stylistic, thematic and political point of view. Adjacencies between the two national corpora show not only the existence of exchanges between the Río de la Plata and France regarding the aesthetic and political debate, but also the existence of a common distribution of the sensible. The study establishes a periodization of the character representation modes, from the character’s access to the main role, through to the analysis of the literary construction of her voice, her course of life, her intimacy and the view she has of the world. This research is based on the belief that domestic service is a total social fact, whose analysis leads to “a radical ontological questioning”. This leaves a mark on the character and on the plot that develops around her. As a result, the authors capture an image of political power. Following on from a tradition of studies that are made in the long term and also taking into account a certain "trans-nationalisation" of the character, we intend to promote the study of housemaids and domestic service in the field of comparative literature.; La recherche se focalise sur l’étude d’un corpus composé d’œuvres littéraires françaises et de la région du Río de la Plata (Amérique du Sud), qui vont de la seconde moitié du XIXe siècle jusqu’à 2015. L’étude s’appuie aussi sur l’analyse d’images iconographiques, pour analyser l’image du personnage de l’employée domestique qui se dégage dans la convergence entre la littérature et les arts plastiques. Dans une perspective comparatiste, le travail explore les formes de la représentation de cette figure d’un point de vue stylistique, thématique et politique. Les contiguïtés entre les deux corpus nationaux montrent non seulement l’existence d’une dynamique d’échanges entre le Río de la Plata et la France en ce qui concerne les débats esthétiques et politiques, mais aussi l’existence d’un partage du sensible commun. L’étude établit une périodisation des modes de représentation du personnage, depuis son accès au rôle principal, à travers l’analyse de la construction littéraire de sa voix, de son parcours de vie, de son intimité et du regard qu’il porte sur le monde. Cette recherche se fonde sur la conviction que la domesticité est un fait social total, dont l’analyse mène à une radicale interrogation ontologique. Cela marque de son empreinte le personnage et les rapports qui se tissent autour de lui et résulte dans sa puissance politique, dont les auteurs se sont emparés. Finalement, et suivant une tradition d’études qui se font sur la longue durée et en prenant compte d’une certaine « transnationalisation » de la figure, nous entendons encourager l’étude de la domestique dans le domaine de la littérature comparée.

  • Open Access English
    Authors: 
    Cardillo, Giulia;
    Publisher: HAL CCSD
    Countries: France, Italy

    Dans cette thèse, trois modèles mathématiques ont été proposés, avec l’objectif de modéliser autant d’aspects complexes de la biomédecine, dans lesquels la dynamique des fluides du système joue un rôle fondamental: i) les interactions fluide-structure entre la pulsatilité du liquide céphalo-rachidien et la moelle épinière (modélisation analytique); ii) dispersion efficace d’un médicament dans l’espace sous-arachnoïdien (modélisation numérique); et iii) la formation et l’évolution d’un thrombus au sein du système cardiovasculaire (modélisation numérique).Le liquide céphalorachidien est un fluide aqueux qui entoure le cerveau et la moelle épinière afin de les protéger. Une connaissance détaillée de la circulation du liquide céphalorachidien et de son interaction avec les tissus peut être importante dans l’étude de la pathogenèse de maladies neurologiques graves, telles que la syringomyélie, un trouble qui implique la formation de cavités remplies de liquide (seringues) dans la moelle épinière.Par ailleurs, dans certains cas, des analgésiques - ainsi que des médicaments pour le traitement de maladies graves telles que les tumeurs et les infections du liquide céphalorachidien - doivent être administrés directement dans le liquide céphalorachidien. L’importance de connaître et de décrire l’écoulement du liquide céphalorachidien, ses interactions avec les tissus environnants et les phénomènes de transport qui y sont liés devient claire. Dans ce contexte, nous avons proposé: un modèle capable de décrire les interactions du liquide céphalo-rachidien avec la moelle épinière, considérant cela, pour la première fois, comme un milieu poreux imprégné de différents fluides (sang capillaire et veineux et liquide céphalo-rachidien); et un modèle capable d’évaluer le transport d’un médicament dans l’espace sousarachnoïdien, une cavité annulaire remplie de liquide céphalo-rachidien qui entoure la moelle épinière.Avec le troisième modèle proposé, nous entrons dans le système cardiovasculaire.Dans le monde entière, les maladies cardiovasculaires sont la cause principale de mortalité. Parmi ceux-ci, nous trouvons la thrombose, une condition qui implique la formation d’un caillot à l’intérieur d’un vaisseau sanguin, qui peut causer sa occlusion. À cet égard, un modèle numérique a été développé qui étudie la formation et l’évolution des thrombus, en considérant simultanément les aspects chimico-biomécaniques et dynamiques des fluides du problème. Dans le modèle proposé pour la première fois, l'importance du rôle joué par les gradients de contrainte de cisaillement dans le processus de thrombogenèse est pris en compte.Les modèles sélectionnés ont fourni des résultats intéressants. Tout d’abord, l’étude des interactions fluide-structure entre le liquide céphalo-rachidien et la moelle épinière a mis en évidence es conditions pouvant induire l’apparition de la syringomyélie. Il a été observé comment la déviation des valeurs physiologiques du module d’Young de la moelle épinière, les pressions capillaires dans l’interface moelle-espace sousarachnoïdien et la perméabilité des compartiments capillaire et veineux, conduisent à la formation de seringues.Le modèle de calcul pour l’évaluation de la dispersion pharmacologique dans l’espace sousarachnoïdien a permis une estimation quantitatif de la diffusivité effective du médicament, une quantité qui peut aider à l’optimisation des protocoles d’injections intrathécales.Le modèle de thrombogenèse a fourni un instrument capable d’étudier quantitativement l’évolution des dépôts de plaquettes dans la circulation sanguine. En particulier, les résultats ont fourni des informations importantes sur la nécessité de considérer le rôle de l’activation mécanique et de l’agrégation des plaquettes aux côtés de la substance chimique. In the present thesis, three mathematical models are described. Three different biomedical issues, where fluid dynamical aspects are of paramount importance, are modeled: i) Fluid-structure interactions between cerebro-spinal fluid pulsatility and the spinal cord (analytical modeling); ii) Enhanced dispersion of a drug in the subarachnoid space (numerical modeling); and iii) Thrombus formation and evolution in the cardiovascular system (numerical modeling).The cerebrospinal fluid (CSF) is a liquid that surrounds and protects the brain and the spinal cord. Insights into the functioning of cerebrospinal fluid are expected to reveal the pathogenesis of severe neurological diseases, such as syringomyelia that involves the formation of fluid-filled cavities (syrinxes) in the spinal cord.Furthermore, in some cases, analgesic drugs -- as well drugs for treatments of serious diseases such as cancers and cerebrospinal fluid infections -- need to be delivered directly into the cerebrospinal fluid. This underscores the importance of knowing and describing cerebrospinal fluid flow, its interactions with the surrounding tissues and the transport phenomena related to it. In this framework, we have proposed: a model that describes the interactions of the cerebrospinal fluid with the spinal cord that is considered, for the first time, as a porous medium permeated by different fluids (capillary and venous blood and cerebrospinal fluid); and a model that evaluates drug transport within the cerebrospinal fluid-filled space around the spinal cord --namely the subarachnoid space--.The third model deals with the cardiovascular system. Cardiovascular diseases are the leading cause of death worldwide, among these diseases, thrombosis is a condition that involves the formation of a blood clot inside a blood vessel. A computational model that studies thrombus formation and evolution is developed, considering the chemical, bio-mechanical and fluid dynamical aspects of the problem in the same computational framework. In this model, the primary novelty is the introduction of the role of shear micro-gradients into the process of thrombogenesis.The developed models have provided several outcomes. First, the study of the fluid-structure interactions between cerebro-spinal fluid and the spinal cord has shed light on scenarios that may induce the occurrence of Syringomyelia. It was seen how the deviation from the physiological values of the Young modulus of the spinal cord, the capillary pressures at the SC-SAS interface and the permeability of blood networks can lead to syrinx formation.The computational model of the drug dispersion has allowed to quantitatively estimate the drug effective diffusivity, a feature that can aid the tuning of intrathecal delivery protocols.The comprehensive thrombus formation model has provided a quantification tool of the thrombotic deposition evolution in a blood vessel. In particular, the results have given insight into the importance of considering both mechanical and chemical activation and aggregation of platelets.

  • English
    Authors: 
    MAURY, Thibaut;
    Publisher: HAL CCSD
    Project: EC | COMPASS (679086)

    Several actors of or related to the European space industry, such as ArianeGroup and the European Space Agency (ESA), have identified life cycle assessment (according to ISO14040/44) as the most appropriate methodology to measure and minimise their environmental impact. Nevertheless, space systems deal with a strong particularity which adds new aspects considering the scope of the LCA framework. Space missions are the only human activity that crosses all segments of the atmosphere and stays “out” of the natural environment and ecosystems. Regarding space systems with a holistic approach, environmental impacts could occur not only in the conventional ecosphere but also in the outer space (i.e. the orbital environment).Consequently, the current scope of LCA studies should be broadened to take into account the on-orbit lifetime as well as the end-of-life disposal of the spacecraft. Yet, it is becoming a crucial point of the space mission design due to the future increase of the orbital population composed in a major part by space debris. In this way, LCA studies of space missions could indicate trade-offs not only between typical impact categories (toxicity and climate change for example) but also with regard to impacts generated in the orbital environment with a particular focus on space debris related impacts.Hence, the priority has been given to the integration of a new impact category called orbital space use in the life cycle impact assessment framework. To address the environmental burdens comprehensively in this new category, impact pathways linking elementary flows to environmental mechanisms (midpoint) and damages (endpoint) are developed within the Area-of-Protection ‘Natural resources’. Space debris is identified as the main stressor of the orbital environment. Thus, ‘characterisation factors’ are defined and calculated at midpoint level to assess the potential impact of a space mission on the orbital environment. The methodology is applied to a case study to prove its applicability: the potential impact of a theoretical space mission is addressed through the comparison of three disposal scenarios. Also, a first attempt regarding the characterisation of the endpoint damage is provided taking into account the economic externalities caused by space debris. Finally, remaining methodological challenges and perspectives for future work are provided.; L’analyse de cycle de vie environnementale (ACV), d’après l’ISO 14040/44, a été identifiée par l’agence spatiale Européenne, ArianeGroup et plusieurs acteurs de l’industrie spatiale européenne comme la méthodologie la mieux adaptée pour réaliser l’évaluation environnementale des missions spatiales. Cependant, le secteur spatial est un domaine d’activité dont la particularité est de s’étendre au-delà des limites de l’environnement terrestre. Ainsi, s’il est possible d’évaluer les impacts sur l’environnement classique via la méthodologie ACV, les impacts générés sur l’environnement orbital ne sont aujourd’hui pas considérés dans son cadre de référence.Par conséquent, il s’agit ici d’étendre le champ des études ACV dans le domaine du spatial afin de caractériser les étapes du cycle de vie ayant lieu en orbite, c’est-à-dire la phase d’usage pendant la mission spatiale et la phase de fin de vie (ou Post-Mission Disposal). L’anticipation de cette dernière est devenue une étape cruciale dans la conception des missions spatiales du fait des règlementations visant à limiter la prolifération des débris spatiaux. En effet, seulement 6% de la population en orbite autour de la Terre sont des satellites actifs, le reste étant considéré comme des débris, résultat des missions et activités spatiales passées. Etant donné cet enjeu de durabilité majeur pour l'industrie spatiale, les études environnementales se doivent de mettre en évidence les transferts de pollution potentiels non seulement entre les impacts environnementaux classiques tels que Changement Climatique ou la Toxicité mais aussi ceux relatifs à l’environnement orbital, au premier rang desquels figurent les débris spatiaux.Afin de caractériser cet impact sur l’environnement orbital, nous proposons de définir une nouvelle catégorie d’impact en ACV dénommée ‘Orbital Space Use’. La conformité avec le cadre de référence de l’ACV est assurée au travers de la construction de chaines de cause-à-effet (ou impact pathways) reliant les flux élémentaires du système d’étude aux mécanismes environnementaux (indicateur midpoint) et au dommage final (indicateur endpoint) au sein de l’Aire de Protection ‘Ressources Naturelles’. En effet, les orbites proches de la Terre qui supportent les activités spatiales sont considérées à ce titre comme une ressource pouvant être impactée par des ‘stresseurs’. Les débris spatiaux sont aujourd’hui identifiés comme les principaux ‘stresseurs’ vis-à-vis de l’accès et de la pleine utilisation de la ressource orbitale. Ainsi, le développement d’un modèle de caractérisation a été entrepris. Il permet d’évaluer l’impact potentiel d’une mission spatiale sur la population des débris déjà présente en orbite. Les facteurs de caractérisation obtenus sont appliqués à un cas d’étude comparant trois scénarios de fin de vie différents dans le but de prouver l’applicabilité du modèle. En outre, une première approche s’intéressant à la quantification des externalités économiques négatives engendrées par la prolifération des débris est développée. Elle constitue une étape préliminaire en vue d’un développement d’une catégorie de dommage dite ‘endpoint’. Enfin, les challenges méthodologiques restants et les potentiels développements complémentaires sont abordés.

  • Open Access English
    Authors: 
    Folena, Giampaolo;
    Publisher: HAL CCSD
    Countries: Italy, France

    The main driving notion behind my thesis research is to explore the connection between the dynamics and the static in a prototypical model of glass transition, i.e. the mean-field p-spin spherical model. This model was introduced more than 30 years ago with the purpose of offering a simplified model that had the same equilibrium dynamical slowing down, theoretically described a few years earlier by mode-coupling theory. Over the years, the p-spin spherical model has shown to be a very meaningful and promising model, capable of describing many equilibrium and out-of-equilibrium aspects of glasses. Eventually it came to be considered as a prototypical model of glassiness. Having such a simple but rich reference model allows a coherent examination of a subject, in our case the glass behavior, which presents a very intricate phenomenology. Thus, the main purpose is not to have a quantitative prediction of the phenomena, but rather a broader view with a strong analytical basis. In this sense the p-spin model has assumed a role for disordered systems which is comparable to that of the Ising model for understanding ferromagnetism. My research is a natural path to reinforce our knowledge and comprehension of this model. In the first chapter, we provide a general introduction to supercooled liquids and their phenomenology. The introduction is brief, and the main goal is to give a general overview, mainly from the point of view of the Random First Order Transition, while considering other perspectives on the subject and attempting to provide a ‘fair' starting bibliography to whomever wants to study supercooled liquids. The last section focuses on the Potential Energy Landscape paradigm (PEL), which in my view, gives a very solid modelization of glassy phenomenology, and shares many aspects with mean-field analysis. In the second chapter, the p-spin spherical model is presented in details. The equilibrium analysis is performed with the replica formalism, with a focus on the ultrametric structure. Then, different tools to study its free energy landscape are introduced: the TAP approach, the Franz-Parisi potential and the Monasson method. These three different ways of selecting states are carefully contrasted and their analogies and differences are underlined, in particular highlighting the different behavior played by pure and mixed p-spin models. Then the equilibrium dynamics is discussed, and a selection of classical results on the dynamical slowing down are analyzed by numerical integration. To conclude, the out-of-equilibrium dynamics in the two temperature protocol is analyzed. This shows two different regimes, the state following and the aging. For both, an asymptotic analysis and a numerical integration are performed and compared. A strong emphasis is given to the possibility of describing the asymptotic dynamics with a static potential. The third chapter presents all the new results that emerged during my research. The study focuses on the two temperature protocol, starting in equilibrium and setting the second temperature to zero, which corresponds to a gradient descent dynamics. This protocol is especially interesting because it corresponds to the search of inherent structure of the energy landscape. The integrated dynamics, depending on the starting temperature, shows three different regimes, one that corresponds to a new phase, which shows aging together with memory of the initial condition. This new phase is not present in pure p-spin models, only in mixed ones. In order to theoretically describe this new phase, a constrained analysis of the stationary points of the energy landscape is performed. A numerical simulation of the system is also presented to confirm this new scenario.; L'objectif principal de ma thèse est d’explorer le lien entre la dynamique et la statique dans un modèle prototypique de transition vitreuse, i.e. le modèle à champ moyen du p-spin sphérique. Ce modèle a été introduit il y a plus de 30 ans dans le but d’offrir un modèle simplifié ayant, à l'équilibre, le même ralentissement dynamique décrit théoriquement quelques années plus tôt par la théorie des modes couplés. Au fil des ans, le modèle du p-spin sphérique s’est révélé être un modèle très significatif et prometteur, capable de décrire de nombreux aspects d’équilibre et hors équilibre des verres. Avoir un tel modèle de référence simple mais riche permet un examen cohérent d’un sujet, dans notre cas le comportement du verre qui présente une phénoménologie très complexe. Ainsi, le but principal n’est pas d’avoir une prédiction quantitative des phénomènes, mais plutôt une vue plus large avec une forte base analytique. En ce sens, le modèle du p-spin a assumé un rôle pour les systèmes désordonnés qui est comparable à celui du modèle Ising pour comprendre le ferromagnétisme. Ma recherche est une voie naturelle pour renforcer notre connaissance et notre compréhension de ce modèle. Dans le premier chapitre, nous donnons une introduction générale aux liquides surfondus et leur phénoménologie. L’introduction est brève, et l’objectif principal est de donner un aperçu général, principalement du point de vue de la transition aléatoire du premier ordre, tout en tenant compte d’autres points de vue sur le sujet et en essayant de fournir une « bonne » bibliographie de départ à quiconque veut étudier les liquides surfondus. La dernière section se concentre sur le paradigme du surface d'énergie potentielle (PEL), qui, à mon avis, donne une modélisation très solide de la phénoménologie vitreuse, et partage de nombreux aspects avec l’analyse du champ moyen. Dans le deuxième chapitre, le modèle du p-spin sphérique est présenté en détail. L’analyse d’équilibre est réalisée avec le formalisme des répliques, avec un accent sur la structure ultramétrique. Ensuite, différents outils pour étudier son paysage d’énergie libre sont présentés: l’approche TAP, le potentiel de Franz-Parisi et la méthode de Monasson. Ces trois manières différentes de sélectionner les états sont soigneusement contrastées et leurs analogies et différences sont soulignées, en particulier le comportement différent joué par les modèles du p-spin purs et mixtes. Ensuite, la dynamique d’équilibre est discutée, et une sélection de résultats classiques sur le ralentissement dynamique sont analysés par intégration numérique. Pour conclure, la dynamique hors équilibre dans le protocole à deux températures est analysée. Cela montre deux régimes différents, des états suivables et du vieillissement. Pour les deux, une analyse asymptotique et une intégration numérique sont effectuées et comparées. L’accent est mis sur la possibilité de décrire la dynamique asymptotique avec un potentiel statique. Le troisième chapitre présente tous les nouveaux résultats qui ont émergé au cours de mes recherches. L’étude se concentre sur le protocole à deux températures, commençant à l’équilibre et fixant la deuxième température à zéro, ce qui correspond à une dynamique de descente du gradient. Ce protocole est particulièrement intéressant car il correspond à la recherche de la structure inhérente du paysage énergétique. La dynamique intégrée, en fonction de la température de départ, montre trois régimes différents. Une de ceux-ci corresponde à une nouvelle phase, qui présente le vieillissement avec la mémoire de la condition initiale. Cette nouvelle phase n’est pas présente dans les modèles du p-spin pure, seulement dans les modèles mixtes. Afin de décrire théoriquement cette nouvelle phase, une analyse des points stationnaires du paysage énergétique est effectuée. Une simulation numérique du système est également présentée pour confirmer ce nouveau scénario.

  • Open Access English
    Authors: 
    Bocco, Andrea;
    Publisher: HAL CCSD
    Country: France

    Most of the Floating-Point (FP) hardware units support the formats and the operations specified in the IEEE 754 standard. These formats have fixed bit-length. They are defined on 16, 32, 64, and 128 bits. However, some applications, such as linear system solvers and computational geometry, benefit from different formats which can express FP numbers on different sizes and different tradeoffs among the exponent and the mantissa fields. The class of Variable Precision (VP) formats meets these requirements. This research proposes a VP FP computing system based on three computation layers. The external layer supports legacy IEEE formats for input and output variables. The internal layer uses variable-length internal registers for inner loop multiply-add. Finally, an intermediate layer supports loads and stores of intermediate results to cache memory without losing precision, with a dynamically adjustable VP format. The VP unit exploits the UNUM type I FP format and proposes solutions to address some of its pitfalls, such as the variable latency of the internal operation and the variable memory footprint of the intermediate variables. Unlike IEEE 754, in UNUM type I the size of a number is stored within its representation. The unit implements a fully pipelined architecture, and it supports up to 512 bits of precision, internally and in memory, for both interval and scalar computing. The user can configure the storage format and the internal computing precision at 8-bit and 64-bit granularity This system is integrated as a RISC-V coprocessor. The system has been prototyped on an FPGA (Field-Programmable Gate Array) platform and also synthesized for a 28nm FDSOI process technology. The respective working frequencies of FPGA and ASIC implementations are 50MHz and 600MHz. Synthesis results show that the estimated chip area is 1.5mm2, and the estimated power consumption is 95mW. The experiments emulated in an FPGA environment show that the latency and the computation accuracy of this system scale linearly with the memory format length set by the user. In cases where legacy IEEE-754 formats do not converge, this architecture can achieve up to 130 decimal digits of precision, increasing the chances of obtaining output data with an accuracy similar to that of the input data. This high accuracy opens the possibility to use direct methods, which are more sensitive to computational error, instead of iterative methods, which always converge. However, their latency is ten times higher than the direct ones. Compared to low precision FP formats, in iterative methods, the usage of high precision VP formats helps to drastically reduce the number of iterations required by the iterative algorithm to converge, reducing the application latency of up to 50%. Compared with the MPFR software library, the proposed unit achieves speedups between 3.5x and 18x, with comparable accuracy. La plupart des unités matérielles arithmétiques à virgule flottante (en anglais Floating-Point, FP) prennent en charge les formats et les opérations spécifiés dans le standard IEEE 754. Ces formats ont une longueur en bits fixe et sont définis sur 16, 32, 64 et 128 bits. Cependant, certaines applications, par exemple les solveurs de systèmes linéaires, ou encore la géométrie computationnelle, pourraient bénéficier de formats différents pour représenter les flottants sur différentes tailles, avec différents compromis entre les champs des exposant et mantisse. La classe des formats de précision variable (en anglais Variable Precision, VP) répond à ces exigences. L'objectif de cette recherche est de proposer un système de calcul VP capable d'augmenter la précision ou l'efficacité de calcul des problèmes en offrant une granularité plus fine des opérations FP. Ce travail propose un système de calcul FP à VP basé sur trois couches de calcul. La couche externe prend en charge les formats IEEE existants pour les variables d'entrée et de sortie. La couche interne utilise des registres de longueur variable pour les opérations de multiplication-addition à haute précision. Enfin, une couche intermédiaire prend en charge le chargement et le stockage des résultats intermédiaires dans la mémoire cache sans perte de précision, avec un format VP réglable dynamiquement. Le support des formats différents entre la représentation interne et le stockage en mémoire proche permets d'envisager des "grands vecteurs" en VP avec la possibilité d’avoir une haute précision de calcul dans la couche interne. L'unité à VP exploite le format FP UNUM de type I, en proposant des solutions pour remédier à certains de ses difficultés intrinsèques, telles que la latence variable de l'opération interne et l'empreinte mémoire variable des variables intermédiaires. Contrairement aux formats définis par IEEE 754, dans l'UNUM de type I, la taille d'un nombre est stockée dans la représentation elle-même. Ce travail propose une architecture de jeu d'instructions pour programmer le système de calcul VP qui suit la structure des couches de calcul susmentionnée. L'objectif de cette ISA est d'établir une séparation claire entre le format de la mémoire et celui à l'intérieur du coprocesseur. Avec cette ISA, le programmeur peut écrire des programmes VP de telle sorte que les instructions assembleur générées soient décorrélées de la taille et des formats des variables du programme. Cette décorrélation se fait en stockant les informations sur la taille, la précision et le format des variables du programme dans des registres d'état dédiés, à l'intérieur de l'unité VP. Ces registres d’état sont utilisés par une unité de chargement et de stockage (Load and Store Unit, LSU), étroitement couplée à l'unité de calcul VP, qui prend en charge la conversion des données entre les couches de calcul.

  • Open Access
    Authors: 
    Benvegnù, Agostino;
    Countries: Italy, France

    GaN-based high electron mobility transistors (HEMTs) are promising candidates for future microwave equipment, such as new solid state power amplifiers (SSPAs), thanks to their excellent performance. A first demonstration of GaN-MMIC transmitter has been developed and put on board the PROBA-V mission. But this technology still suffers from the trapping phenomena, principally due to lattice defects. Thus, the aim of this research is to investigate the trapping effects and the reliability aspects of the GH50 power transistors for C-band applications. A new trap investigation protocol to obtain a complete overview of trap behavior from DC to radio-frequency operation modes, based on combined pulsed I/V measurements, DC and RF drain current measurements, and low-frequency dispersion measurements, is proposed. Furthermore, a nonlinear electro-thermal AlGaN/GaN model with a new additive thermal-trap model including the dynamic behavior of these trap states and their associated temperature variations is presented, in order to correctly predict the RF performance during real RF operating conditions. Finally, an advanced time-domain methodology is presented in order to investigate the device’s reliability and to determine its safe operating area. This methodology is based on the continual monitoring of the RF waveforms and DC parameters under overdrive conditions in order to assess the degradation of the transistor characteristics in the RF power amplifier.; Les transistors à haute mobilité d’électrons (HEMTs) en nitrure de gallium (GaN) s’affirment comme les candidats prometteurs pour les futurs équipements à micro-ondes - tels que les amplificateurs de puissance à état solide (SSPA), grâce à leurs excellentes performances. Une première démonstration d'émetteur en technologie GaN-MMIC a été développée et embarquée dans la mission spatiale PROBA-V. Mais cette technologie souffre encore des effets de pièges par des défauts présents au sein de la structure. L’objectif de ce travail est donc l'étude d’effets de pièges et des aspects de fiabilité des transistors de puissance GH50 pour des applications en bande C. Un protocole d’investigation des phénomènes de pièges est présenté, qui permet l’étude des dynamiques des effets de pièges du mode de fonctionnement DC au mode de fonctionnement radiofréquence, basé sur la combinaison des mesures IV impulsionnelles, des mesures de transitoires du courant de drain avec des impulsions DC et RF et des mesures de paramètres [S] en basse fréquence. Un modèle de HEMT AlGaN/GaN non-linéaire électrothermique est présenté, incluant un nouveau modèle thermique de pièges restituant le comportement dynamique de ces pièges et leurs variations en température afin de prédire correctement les performances en conditions réelles de fonctionnement RF. Enfin, une méthodologie temporelle pour l’évaluation de la fiabilité et de limites réelles d'utilisation de transistors dans l'amplificateur de puissance RF en régime d’overdrive (très forte compression), basée sur la mesure monitorée de Formes d'Onde Temporelles (FOT), est proposée.

  • Open Access English
    Authors: 
    Mazzoleni, Antonio;
    Publisher: HAL CCSD
    Countries: France, Italy, France

    The main purpose of this thesis was to develop peptide probes to detect and isolate specific and high affinity antibodies from sera of patients suffering from multiple sclerosis (MS). We selected a di-glucosylated adhesin HMW1 peptide as the shortest sequence up to now able to compete with the highest affinity with anti-N(Glc) IgM binding. 40 kDa dextran was modified with propargyl groups and used as a scaffold to conjugate by CuAAC the di-glucosylated peptide. This novel polymeric structure was proven to dramatically increase binding potency of IgGs and IgMs in MS sera. Abs from a representative MS serum, were successfully purified on a sepharose resin specifically modified with the adhesin peptide-dextran conjugate, as confirmed by ELISA. This result appears promising as a proof-of-concept of the selective removal of circulating autoantibodies (possibly perpetuating nonself recognition) that could likely lead to develop a specific apheresis-based device.; Le but principal de ce travail de thèse a été de développer des sondes peptidiques pour détecter et isoler des auto-anticorps spécifiques à haute affinité à partir du sérum de patients souffrant de sclérose en plaques (SEP). Nous avons sélectionné un peptide di-glucosylé de l’adhésine HMW1 comme séquence minimale capable de détecter les anti-N(Glc) IgM. Ainsi, un dextrane de 40 kDa a été modifié avec des groupes propargyle et a été utilisé comme échafaudage pour conjuguer par CuAAC le peptide N-glucosylée. On a prouvé que ce nouveau polymère augmente considérablement la puissance de la liaison des IgG et IgM caractéristique de la forme de SEP que nous venons de caractériser. Les anticorps d'un sérum représentatif ont été purifiés avec succès, comme confirmé par test ELISA. Ce résultat semble prometteur en tant que preuve de concept de la possible déplétion sélective des auto-anticorps circulants dans la SEP, qui pourrait conduire à développer un dispositif thérapeutique spécifique basé sur aphérèse.

Send a message
How can we help?
We usually respond in a few hours.