Catalogue - page 3

Affiche du document Conscience et cerveau

Conscience et cerveau

Michel IMBERT

1h28min44

  • Psychologie
  • Sciences médicales. Médecine
Conscience et cerveau font aujourd'hui bon ménage. Il n'en a pas toujours été ainsi. A une longue période d'indifférence, suivie d'un temps d'hostilité affichée, fait suite aujourd'hui une idylle grosse de promesses mais riche d'obscurité, de confusions et d'illusions. Le nombre de livres publiés par des philosophes, psychologues, neurobiologistes, physiciens ou mathématiciens (et j'en passe), le nombre de colloques ou de numéros spéciaux de revues consacrés aux relations entre cerveau et conscience est simplement confondant.
Cet engouement vient, pour une grande part, des recherches sur le cerveau lui-même. Il vient surtout de la mise en évidence de dissociations spectaculaires entre ce qu'un patient, souffrant d'une lésion cérébrale circonscrite, est capable de réaliser, sans en avoir la moindre idée, grâce à des capacités de percevoir, de mémoriser, de choisir et arranger l'information pertinente pour réaliser un geste, saisir un objet, éviter un obstacle, être ému par un visage familier. Autant de comportements qu'il exécute sans savoir comment, mais dont il aurait été pleinement conscient sans sa lésion cérébrale. On peut aller jusqu'à dire que toutes les compétences cognitives, y compris les compétences sémantiques, peuvent être, jusqu'à un certain point, réalisées sans que le sujet en ait conscience.
Cette forme de conscience constitue ce que certains auteurs appèlent le problème facile de la conscience, en ce sens qu'une explication en termes de fonctionnement cérébral ne pose pas de problèmes insurmontables. Il n'en va peut-être pas de même de la conscience au sens d'expérience subjective, strictement privée et toujours faite à la première personne ; cet aspect de la conscience constituerait, en revanche, un véritable défi à toute explication scientifique.
Nous nous proposons de passer en revue un certain nombre d'arguments, pris notamment dans le domaine de la perception visuelle, qui établissent des corrélations fortes entre le fonctionnement de régions cérébrales localisées et la conscience que nous avons de ce que nous voyons et de ce que nous ressentons lorsque nous voyons.
Accès libre
Affiche du document Voir le cerveau penser

Voir le cerveau penser

Denis LE BIHAN

1h16min21

  • Sciences de la vie, Biologie
  • Sciences médicales. Médecine
  • Génie et activités connexes
L'imagerie par Résonance Magnétique (IRM) permet depuis une vingtaine d'année de produire des images de l'anatomie ‘statique' du cerveau, c'est-à-dire des coupes virtuelles montrant les détails des structures cérébrales (matière grise, matière blanche) avec une précision millimétrique. Cette imagerie ‘anatomique' est utilisée par les radiologues pour la détection et la localisation de lésions cérébrales. Plus récemment, l'IRM est aussi devenue ‘fonctionnelle' (IRMf), montrant l'activité des différentes structures qui composent notre cerveau. L'imagerie neurofonctionnelle par IRMf repose sur deux concepts fondamentaux. Le premier, soupçonné depuis l'Antiquité mais clairement mis en évidence au siècle dernier par les travaux du chirurgien français Paul Broca, est que le cerveau n'est pas un organe homogène, mais que chaque région est plus ou moins spécialisée dans sa fonction. Le deuxième, suggéré par l'anglais Sherrington à la fin du siècle dernier, est que les régions cérébrales actives à un moment donné voient leur débit sanguin augmenter. C'est cette augmentation locale et transitoire de débit sanguin, et non directement l'activité des neurones, qui peut être détectée par l'IRMf et par la caméra à émission de positons (autre méthode d'imagerie neurofonctionnelle). En pratique, il suffit donc d'acquérir des images représentant le débit sanguin en chaque point de notre cerveau quand il exécute une tâche particulière (motrice, sensorielle, cognitive,...) et dans une condition de référence neutre. A l'aide d'un traitement informatique de ces images, on peut extraire les régions cérébrales pour lesquelles le débit sanguin a changé entre la condition de contrôle et l'exécution de la tâche et en déduire que ces régions ont participé à cette tâche. Ces régions sont reportées en couleurs sur l'anatomie cérébrale sous-jacente. Bien que l'imagerie neurofonctionnelle, aujourd'hui, ne permette pas de descendre à l'échelle des neurones, les exemples rassemblés dans ces pages tendent à montrer que les circuits cérébraux utilisés par l'activité de ‘pensée' sont communs avec ceux utilisés par des processus de perception ou d'action réels. Ce résultat n'est pas surprenant a priori, si on considère que certaines formes de pensée (créer et voir une image mentale, imaginer une musique, inventer une histoire, évoquer des souvenirs...) ne sont autres que des simulations ou reproductions internes d'évènements que nous avons vécus ou que nous pourrions vivre. Au delà de l'identification des régions impliquées dans les processus cognitifs, des travaux en cours laissent présager qu'un jour nous pourrions peut-être même avoir accès en partie à la nature de l'information traitée par les différentes régions de notre cerveau, et donc, d'une certaine manière, à une petite fraction du contenu de nos pensées...
Accès libre
Affiche du document Les égouts et l'évacuation des déchets

Les égouts et l'évacuation des déchets

Jean-Marie MOUCHEL

1h26min51

  • Sciences de la vie, Biologie
  • Généralités
  • Génie et activités connexes
Après de nombreux siècles où l'alimentation en eau de Paris, et par voie de conséquence, son réseau d'égout sont restés fort limités, un essor considérable a été donné au réseau au milieu du 19e siècle, et il s'est poursuivi jusqu'à aujourd'hui. Parmi les projets initiaux, certains prévoyaient la création d'une ville souterraine, où seraient réalisées nombreuses des basses besognes nécessaires au fonctionnement et au prestige de la partie visible (et "hygiénisée") de la ville. Les réseaux souterrains devaient ainsi assurer le transport de l'eau mais aussi de nombreuses marchandises ou déchets. Dans le même temps, l'alimentation en eau potable généralisée, et l'élimination des eaux souillées hors de la ville, devenait un objectif prioritaire pour des raisons sanitaires. Les épidémies de choléra du milieu du siècle furent un des facteurs déclenchant le développement des projets de Belgrand à l'époque ou Haussmann rénovait la partie visible de Paris. Une particularité des égouts de Paris est la taille des canalisations, qui les rend en tout point visitables, ce qui leur confère un cachet tout particulier. Ils ont d'ailleurs toujours été visités, par les égoutiers chargés de leur entretien en premier lieu, mais aussi par de nombreux visiteurs qui accèdent aujourd'hui au musée des égouts situé dans le réseau. Dans la dernière partie du 19e siècle fut instauré le principe du tout-à-l'égout, mais sa mise en oeuvre complète, visant à l'élimination de toutes les fosses chez les particuliers, dura plusieurs décennies et se poursuivit au début du 20ième siècle. Le réseau devint unitaire, évacuant à la fois les eaux usées et les eaux de chaussées (eaux du lavage de rues, eaux de ruissellement pluvial etc.). Pour des raisons techniques, et pour éviter des déversements en Seine à l'intérieur de Paris, Belgrand a basé l'architecture du réseau sur un collecteur central qui rejoignait directement la Seine à Clichy.
Le développement de la ville, et la mise en oeuvre du tout-à-l'égout ont considérablement augmenté la quantité de pollution déversée. A la fin du 19ième siècle, une solution basée sur l'épuration par le sol fut développée pour traiter les eaux avant leur arrivée en Seine. Des champs d'épandage furent installés dans la presqu'île de Gennevilliers puis plus à l'aval (Achères, Triel…), la ville de Paris devint propriétaire fermier et favorisait une intense activité de maraîchage. Au moment de l'exposition universelle à la toute fin du siècle, presque toutes les eaux collectées étaient envoyées vers les champs d'épandage. Cependant, la course en avant devait continuer, de plus en plus d'eau étant utilisée et devant être évacuée puis traitée dans une ville en constante expansion, alors que la pression foncière réduisait la superficie des champs d'épandage. Dès le début du 20ième, les rejets d'eaux usées en Seine reprirent de plus belle. Après de nombreux essais menés sur les pilotes par la ville de Paris, la première station d'épuration moderne à boues activées fut construite à Achères en 1938 (aujourd'hui "Seine-Aval"), et ne fut réellement alimentée que plusieurs années après la guerre. Dans les filières de traitement d'une telle station, comme dans le sol, des micro-organismes se développent en digérant les matières organiques et les transforment en gaz carbonique et en sels. Les matières solides transportées dans l'eau des égouts et les micro-organismes produits au cours du traitement sont rassemblés pour constituer les boues d'épuration. D'autres filières sont chargées du traitement des boues qui sont épaissies, pressées, éventuellement digérées avant d'être épandues sur des terres agricoles, mises en décharge ou encore incinérées. Depuis la fin de la deuxième guerre mondiale, le processus de construction de nouveaux réseaux et de nouvelles stations de traitement des eaux n'a cessé de se développer. A partir des années 70, on cessa de créer des réseaux unitaires pour passer au système séparatif. Dans un réseau séparatif, les eaux pluviales sont collectées dans un réseau séparé des eaux usées domestiques ou industrielles. Les eaux pluviales sont évacuées directement vers le milieu récepteur, alors que les eaux usées sont envoyées vers les stations d'épuration. Un avantage très significatif de ce type de collecte est que les flots reçus par les stations de traitement sont beaucoup plus réguliers, et qu'il n'y a pas de risques de surcharge du système en temps de pluie. Par contre, ce système nécessite une surveillance accrue des "mauvais branchements" d'eaux usées sur le réseau pluvial, et ne permet pas de traiter les eaux de ruissellement qui peuvent être fortement contaminées. Les stations de traitement sont devenues plus efficaces et plus flexibles dans leur gestion, ce qui permet notamment de traiter une fraction toujours croissante des eaux de temps de pluie dans les réseaux anciens unitaires, et de résoudre en grande partie graves problèmes dues aux déversements de temps de pluie dans le réseau unitaire. De nouvelles stations ont été construites en différents points de l'agglomération parisienne pour des raisons techniques, parce qu'il devenait techniquement difficile d'acheminer les eaux sur de très longues distances vers un point de traitement unique à l'aval, mais aussi pour des raisons éthiques et politiques pour que soit mieux partagées les nuisances dues au traitement. Le devenir des boues est toujours un problème aujourd'hui car elles peuvent contenir des contaminants persistants en quantité excessive. Alors que les matières organiques contenues dans les boues constituent des amendements utiles aux cultures, les contaminations doivent être évitées. Des efforts très importants ont été faits dans l'agglomération parisienne pour limiter le rejets de contaminants dans le réseau. Cette politique de réduction à la source a porté ses fruits puisque les teneurs en certains métaux dans les boues de la station "Seine-Aval" ont diminué de plus qu'un facteur 10 en 20 ans. L'évolution actuelle va vers des réseaux et des méthodes de traitement plus diversifiées. Le développement de stations de traitement va se poursuivre en différents points de l'agglomération parisienne, alors que l'interconnexion du réseau unitaire devient une réalité, qui permet une meilleure gestion des eaux en temps de pluie. Dans le même temps les eaux pluviales sont de plus en plus souvent retenues ou traitées à l'amont des bassins versants pour limiter le ruissellement excessif. Il aura donc fallu plus d'un siècle pour que la grande ligne directrice "tout vers l'aval" qui avait été instaurée par Belgrand soit remise en cause. Il aura fallu un siècle également pour que l'objectif "zéro rejets par temps", atteint au début du siècle lors de l'exposition universelle, soit de nouveau atteint. Le réseau d'assainissement fait donc bien partie de ces patrimoines techniques urbains fondamentaux qu'il faut gérer aujourd'hui en pensant aux générations futures.
Références utilisées dans cette conférence : "Atlas du Paris Souterrain", par Gilles Thomas et Alain Clément, Ed. Parigramme, 2001. "Paris Sewers and Sewermen, realities and representations", par D. Reid, Harvard University Press, 1991. "Les égouts de Paris, une ville sous la ville", plaquette de présentation des égouts, Mairie de Paris "Rendre l'eau à la vie, 1970/1995, 25ième anniversaire du SIAAP", par M.F. Pointeau, Ed. CEP Euro Editions. "La Seine en son Bassin", M. Maybeck, G. de Marsily et E. Fustec (editeurs), publié par Elsevier en 1998.
Accès libre
Affiche du document Clonage reproductif, clonage thérapeutique

Clonage reproductif, clonage thérapeutique

Jean-Paul RENARD

1h24min08

  • Éthique (philosophie morale)
  • Sciences de la vie, Biologie
  • Sciences médicales. Médecine
Depuis l'annonce, en 1997 de la naissance du mouton Dolly, on a pu obtenir - chez quatre espèces, le mouton, la vache, la chèvre et la souris - des jeunes par clonage de cellules prélevées sur des animaux adultes. L'efficacité de la technique reste encore faible. Le taux élevé de mortalité périnatale et foetale tardive, environ 40% des gestations établies, traduit l'existence d'effets épigénétiques à long terme induits par les perturbations précoces de l'environnement du noyau zygotique. Le clonage doit aujourd'hui être considéré, avant tout, comme une voie de recherche pour l'étude de la plasticité fonctionnelle du noyau des cellules différenciées. La maîtrise du clonage animal offrirait de nombreuses perspectives d'applications pour l'expérimentation animale, et aussi l'obtention d'animaux transgéniques issus de noyaux modifiés lors de la culture des cellules donneuses. Le non recours au clonage reproductif s'impose aujourd'hui chez l'homme, non seulement par simple précaution - compte tenu des cas de syndromes létaux observés chez les animaux clonés - mais aussi pour des raisons éthiques. L'obtention à partir de blastocystes humains issus du clonage, de cellules embryonnaires multipoptentes qui seraient ensuite différenciées en culture ouvrirait la voie au développement des autogreffes pour corriger des défauts tissulaires. Ce clonage dit thérapeutique et impliquant l'utilisation de très jeunes embryons à des fins de recherche, n'est toutefois pas prêt de devenir réalité.
Accès libre
Affiche du document 12. Mise en valeur de la châtaigneraie à travers les espaces protégés : le cas du Parc National des Cévennes

12. Mise en valeur de la châtaigneraie à travers les espaces protégés : le cas du Parc National des Cévennes

Gérard BRIANE

13min28

  • Économie
  • Sciences de la vie, Biologie
  • Botanique
  • Agriculture, Exploitation de la faune et de la flore
En 1970, le Parc national des Cévennes est créé. S'il vise à conserver les paysages caussenards et cévenols de très haute qualité, il fonde aussi de nombreux espoirs sur la réactivation de l'économie locale alors tombée en déshérence. La crise de la châtaigne et de la soie, les deux guerres et l'exode rural avaient particulièrement malmené les Cévennes, dès lors en quête d'un nouveau projet de territoire.
Comment concilier le maintien de la population locale avec ses activités économiques et la protection du patrimoine naturel et culturel ? Autour de ces questionnements sont nées des initiatives locales d'individus, d'associations, d'organismes professionnels et du Parc des Cévennes. Son directeur Jacques Merlin témoigne dans ce film : "Le Parc National des Cévennes se trouve dans un milieu très habité et c'est un parc dont l'objet n'est pas de soustraire la nature à l'activité de l'homme mais au contraire de travailler avec l'homme et ses activités pour mieux protéger la nature". C'est un cas assez exceptionnel. Pourtant, beaucoup de gens ont parlé d'un "Parc National au rabais, puisqu'il y a plein d'activités humaines !".
Aujourd'hui, c'est plutôt un concept qui est recherché. Le modèle du Parc National des Cévennes se situe aux nouvelles frontières du développement durable : comment la société fait avec sa nature et son avenir, plutôt que de séparer les deux, la société et la nature. Et donc la châtaigneraie est un des espaces, un des objets, une des histoires qui sont au coeur de ce vaste territoire.
Accès libre
Affiche du document SEGAMED 2016 - Les serious games pour la dépression

SEGAMED 2016 - Les serious games pour la dépression

19min14

  • Sciences médicales. Médecine
SEGAMED 2016

 

Premier colloque français consacré exclusivement à la recherche et à l'évaluation des jeux sérieux appliqués à la médecine et à la santé

Première Health Gaming Week appliquée à la médecine et à la Santé

Galina IAKIMOVA
Les serious games pour la dépression : l'apport des thérapies comportementales et cognitives et des neurosciences


 

SeGaMed est le premier colloque français consacré exclusivement à la recherche et à l’évaluation des jeux sérieux appliqués à la médecine et à la santé. La saison 1 de SeGaMed a été construite en 4 épisodes : Acceptation, Appropriation, Adaptation, Anticipation. L’édition 2015 s’est achevée. L’édition 2016 est en route. Une nouvelle semaine de la santé digitale à Nice en décembre 2016. Gamification, Simulation, Santé numérique, Ateliers patients, Ateliers pros, Ateliers étudiants. Le Fil conducteur de l’édition 2016 est : « De la création à l’intégration ».
Après la Fashion Week, voici la Health Gaming Week !
Du 25 novembre au 3 décembre 2016, la faculté de Médecine de Nice organise la première Health Gaming Week Appliquée à la médecine et à la Santé.
Cette semaine consacre trois type d’événements :
Du 25 au 27 novembre, le premier gamathon appliqué à la médecine et à la santé.Du 28 novembre au 1er décembre, une succession de workshops et une master classe dédiée à la gamification pour les problématiques de nutritionLe 2 et 3 décembre, la 5ème édition du colloque SeGaMed (Serious Gaming and Simulating Applied for Medicine and Health).Les temps forts sont : la master classe sur la nutrition, le workshop « scenario based learning et eVP », le workshop sur « gamification et réalité virtuelle par l’équipe LudoTIC, le workshop organisé par Grenoble Ecole de Management sur Tech it ! un serious game stimulant l’innovation, l’atelier de démonstration des outils Sim4Health.
L’objectif de SeGaMed est de promouvoir les bonnes pratiques de développement et d’utilisation de la simulation full numérique et de la gamification dans les situations de formation et d’information liées à la résolution de questions et problématiques en lien avec l’éducation thérapeutique, l’éducation à la santé, la qualité, les risques et les vigilances en santé à destination des patients et des professionnels de santé.
Accès libre
Affiche du document Connaissances et pensée mathématiques : les bases cérébrales de l'intuition numérique

Connaissances et pensée mathématiques : les bases cérébrales de l'intuition numérique

Stanislas DEHAENE

1h13min29

  • Généralités
  • Mathématiques
  • Sciences médicales. Médecine
Quelles représentations mentales et quelles structures cérébrales permettent au cerveau humain de créer des mathématiques ? Les nouvelles méthodes des sciences cognitives et de l'imagerie cérébrale permettent d'aborder cette question empiriquement, même si nous ne pouvons guère qu'effleurer le sujet en étudiant les plus simples des objets mathématiques : les petits nombres entiers. Je montrerai que la représentation des nombres dans le cerveau humain suit deux lois dont de nombreux mathématiciens, tels Poincaré, Hadamard ou Einstein, avaient pressenti l'existence en faisant appel à leur introspection. Tout d'abord, cette représentation est non-verbale : elle ne fait appel ni aux mots, ni aux aires corticales du langage, mais dépend des régions pariétales associées à la perception de l'espace. En second lieu, elle est susceptible de s'activer en l'absence de toute conscience. La région pariétale fournit une intuition des quantités dont nous ne réalisons l'importance, paradoxalement, que lorsqu'elle est détériorée : une lésion cérébrale, à l'âge adulte comme dans la petite enfance, entraîne une incapacité de calculer et, plus simplement, de comprendre ce que sont les nombres. Ainsi, si les mathématiques de haut niveau se construisent grâce au langage et à l'éducation, leurs fondements les plus élémentaires - concepts de nombre, mais aussi d'espace, de temps, d'opération... - sont à rechercher dans l'organisation même de notre cerveau.
Accès libre
Affiche du document Géographie et observation par satellite

Géographie et observation par satellite

Catherine MERING

1h15min48

  • Sciences de la vie, Biologie
  • Génie et activités connexes
  • Méthodes de la géographie. Explorations et voyages
La géographie s'intéresse aux structures spatiales et aux processus d'origine anthropique et naturelle qui les produisent. La question se pose alors d'observer ces structures de la façon la plus objective et la plus directe possible. Depuis l'avènement de la photographie aérienne et de la télédétection, les géographes ont à leur disposition une source d'information irremplaçable pour observer, analyser et cartographier ces structures sous leur forme la plus directement perceptible et mesurable, c'est à dire les paysages.
Les photographies aériennes, qui ont été prises de façon systématique à partir des années 50 leur permettaient déjà d'observer le paysage en laboratoire, d'en délimiter les différentes unités pour produire des croquis interprétatifs et enfin des cartes. Au début des années 70, les images multispectrales, prises de façon systématique sur l'ensemble du globe par le satellite Landsat MSS inauguraient la série de prises de vue périodiques de la surface terrestre sous forme d'images numériques. Les méthodes statistiques et informatiques allégeaient désormais sa tâche en classant automatiquement les points de l'image, l'aidant ainsi à produire plus rapidement et de façon plus objective une carte des paysages de la scène étudiée. L'avancée incontestable que constituait la télédétection satellitaire et l'accès aux images numériques de la Terre, ne remettait pas en cause l'intérêt des photographies aériennes . En effet, le pouvoir de résolution de ces nouvelles images était encore insuffisant puisqu'il ne permettait pas de distinguer les tissus urbains, les lieux d'habitats dispersés, ni les paysages complexes et discontinus comme les steppes et les savanes de la zone intertropicale.
Les satellites SPOT et Landsat Thematic Mapper, lancés au milieu des années 80, allaient combler ce fossé: il était désormais possible d'étudier de nombreuses catégories de paysages, quel que soit leur niveau de complexité. Un problème demeurait cependant : les prises de vues effectuées par les capteurs comme ceux de SPOT et Landsat dits "passifs" parce qu'ils ne font qu'enregistrer l'énergie renvoyée par la surface, sont difficilement exploitables en période de forte nébulosité où les paysages sont totalement masqués par les nuages. Mais depuis les années 90, grâce aux images radar des satellites ERS et JERS , l'observation des paysages peut se faire indépendamment des conditions climatiques et météorologiques, ce qui ouvre la voie à l'étude par satellite des zones tropicales et équatoriales où l'atmosphère est rarement limpide ou ceux des zones boréales éclairées la plupart du temps par une lumière rasante.
Les géographes, disposent donc aujourd'hui d'une immense banque d'images sur les paysages terrestres. Ces archives, acquises depuis environ un demi-siècle continuent de s'enrichir d'images numériques produites par des capteurs passifs ou actifs, prises sous des angles variés et à des résolutions de plus en plus grandes. A l'aube du troisième millénaire, il ne s'agira plus seulement pour eux de faire un inventaire des paysages en les cartographiant, mais d'analyser et de mesurer leurs transformations : En effet, ces transformations qu'elles soient très rapides quand elles sont dues à des catastrophes naturelles, comme les séismes, les éruptions volcaniques, les cyclones ou les inondations ou plus lentes lorsqu'elles sont liées à l'évolution des sociétés telles la déforestation, la déprise agricole ou la croissance urbaine sont désormais directement observables par télédétection.
Accès libre
Affiche du document La conception des barrages

La conception des barrages

Bernard TARDIEU

1h00min48

  • Génie et activités connexes
Les barrages participent au développement de plusieurs façons. Dans les territoires où la ressource hydrique est irrégulière, ils permettent de régulariser les débits d'eau pour les besoins de l'irrigation (c'est l'objet de plus des deux tiers des barrages), de l'eau domestique et industrielle. Ils participent à l'écrêtement des pics de crue et permettent dans certains cas d'améliorer la navigabilité des fleuves. Dans les territoires riches en ressources hydriques, ils sont un des éléments de la production d'énergie hydroélectrique, une énergie renouvelable et très flexible dans son adaptabilité aux variations de la demande électrique.
Comme le barrage d'Assouan une génération plus tôt, le barrage des Trois Gorges, en Chine, a beaucoup fait parler de lui. Le projet sera présenté ainsi que les différents points de vue. Plus encore que d'autres grands ouvrages d'infrastructure, les barrages, par les changements qu'ils apportent, favorisent des populations et en défavorisent d'autres. Des progrès notables ont été effectués pour mieux prendre en compte les populations défavorisées, surtout les plus fragiles, et intégrer leur développement dans le projet global. Cet aspect essentiel sera également développé. D'un point de vue plus technologique, on présentera les différents types de barrages et notamment les nouvelles technologies qui permettent de construire de façon plus économique et plus efficace. Les barrages en construction se trouvent en majorité dans les pays émergents.
Accès libre

...

x Cacher la playlist

Commandes > x
     

Aucune piste en cours de lecture

 

 

--|--
--|--
Activer/Désactiver le son