Source : http://programmes.france3.fr Un documentaire réalisé par Kenichi Watanabe Une production Artline Films, Kami Productions, avec la participation de France Télévisions Narrateur : Robin Renucci
Sous un angle inédit, ce documentaire revient sur les faits qui ont entouré les premières explosions atomiques de l’histoire de l’humanité.
L’alliance inédite des militaires, politiques, scientifiques et médecins qui ont fabriqué, dans le plus grand secret, LA bombe.
La catastrophe de Fukushima marquera-t-elle un coup d’arrêt pour le nucléaire et sa course à la conquête du monde ? C’est au Japon qu’elle avait commencé 66 ans plus tôt. Le peuple japonais est le seul à avoir été par deux fois victime de l’atome.
Le 6 août 1945, la première bombe atomique de l’histoire détruit une ville de 100.000 habitants en quelques secondes. Jusqu’à ce jour, Hiroshima et Nagasaki sont les deux seules villes où des armes nucléaires ont été dirigées contre des êtres humains.
Le nom d’Hiroshima est devenu le symbole de l’entrée de l’humanité dans l’ère nucléaire. L’histoire officielle, écrite après-guerre par les architectes de la bombe, se résume au " mal nécessaire " : il fallait utiliser cette arme nouvelle et terrifiante pour terminer la guerre. Mais derrière la version des manuels scolaires et des films de propagande se cache une toute autre histoire.
" La face cachée de Hiroshima " revient sous un angle inédit sur les faits qui ont entouré les premières explosions atomiques de l’histoire de l’humanité. Depuis les coulisses du Projet Manhattan jusqu’aux recherches secrètes menées au Japon des décennies durant, le film dévoile l’histoire fascinante des scientifiques qui ont conçu et expérimenté la bombe nucléaire. Dans le plus grand secret, en concluant un pacte avec les militaires et les industriels, une relation triangulaire va mener le monde au feu atomique. Hiroshima et Nagasaki marquent le véritable coup d’envoi de l’industrie nucléaire civile, et de son essor prodigieux dans l’après-guerre.
Les nanotechnologies ont ouvert un nouveau chapitre dans l'histoire des technologies : celui d'une miniaturisation qui confine à l'invisible. Nous n'en sommes pas nécessairement conscients, mais certains matériaux aux propriétés inimaginables il y a encore quelques années ou des objets familiers dotés de fonctions inédites ont déjà fait leur entrée dans nos vies. Une nouvelle vague de produits est sur le point de sortir des laboratoires de recherche. Elle nous promet des ordinateurs toujours plus petits et plus puissants ainsi que la prolifération de minuscules dispositifs électroniques communiquant en réseau. Pour certains, ces évolutions technologiques devraient simplifier notre quotidien et rendre le monde plus sûr, plus efficace et plus confortable. Mais la vitesse à laquelle ces dispositifs s'insèrent dans nos sociétés et les modèlent suscite des inquiétudes. En changeant la dimension de notre intervention sur la matière, les nanotechnologies pourraient faire évoluer en profondeur notre rapport au monde. De quelle manière ? Dans quelle direction ? Confort et liberté, sécurité et vie privée sont plus que jamais au coeur des questionnements qui accompagnent l'essor des nanotechnologies dans les domaines de l'électronique et de la production de nouveaux matériaux.
Les nanotechnologies ont ouvert un nouveau chapitre dans l'histoire des technologies : celui d'une miniaturisation qui confine à l'invisible. Nous n'en sommes pas nécessairement conscients, mais certains matériaux aux propriétés inimaginables il y a encore quelques années ou des objets familiers dotés de fonctions inédites ont déjà fait leur entrée dans nos vies. Une nouvelle vague de produits est sur le point de sortir des laboratoires de recherche. Elle nous promet des ordinateurs toujours plus petits et plus puissants ainsi que la prolifération de minuscules dispositifs électroniques communiquant en réseau. Pour certains, ces évolutions technologiques devraient simplifier notre quotidien et rendre le monde plus sûr, plus efficace et plus confortable. Mais la vitesse à laquelle ces dispositifs s'insèrent dans nos sociétés et les modèlent suscite des inquiétudes. En changeant la dimension de notre intervention sur la matière, les nanotechnologies pourraient faire évoluer en profondeur notre rapport au monde. De quelle manière ? Dans quelle direction ? Confort et liberté, sécurité et vie privée sont plus que jamais au coeur des questionnements qui accompagnent l'essor des nanotechnologies dans les domaines de l'électronique et de la production de nouveaux matériaux.
Dans le secteur médical, après seulement une quinzaine d'années de recherches, les premiers produits "nano" font leur apparition. Certains sont déjà commercialisés, d'autres en phase d'essais cliniques. Il s'agit de nouveaux systèmes de diagnostic dont la précision et la simplicité permettent le développement d'une médecine plus préventive et personnalisée. Mais aussi d'une amélioration spectaculaire de l'efficacité de nombreux traitements contre le cancer ou les maladies cardiovasculaires par la possibilité de cibler exclusivement les cellules malades.
Ces avancées, porteuses d'espoirs considérables, vont aussi, sans doute, nous confronter à des situations et des questions inédites. Selon certains, les pouvoirs des nanotechnologies pourraient aller jusqu'à permettre l'émergence d'un homme nouveau aux "performances améliorées", un cyborg bardé d'implants électroniques directement connectés à son système nerveux. Cauchemar ou réalité future ?
Dans le secteur médical, après seulement une quinzaine d'années de recherches, les premiers produits "nano" font leur apparition. Certains sont déjà commercialisés, d'autres en phase d'essais cliniques. Il s'agit de nouveaux systèmes de diagnostic dont la précision et la simplicité permettent le développement d'une médecine plus préventive et personnalisée. Mais aussi d'une amélioration spectaculaire de l'efficacité de nombreux traitements contre le cancer ou les maladies cardiovasculaires par la possibilité de cibler exclusivement les cellules malades. Ces avancées, porteuses d'espoirs considérables, vont aussi, sans doute, nous confronter à des situations et des questions inédites. Selon certains, les pouvoirs des nanotechnologies pourraient aller jusqu'à permettre l'émergence d'un homme nouveau aux "performances améliorées", un cyborg bardé d'implants électroniques directement connectés à son système nerveux. Cauchemar ou réalité future ?
Des organismes internationaux réclament l'abandon d'un projet d'écran solaire dans la stratosphère
Au moment où des chercheurs confirment l'existence d'un trou de plus de 2 millions de kilomètres carrés dans la couche d'ozone au-dessus de l'Arctique, des équipes britanniques s'apprêtent à amorcer une expérience en vue d'injecter dans la stratosphère des sulfates pour refroidir éventuellement la planète. Or les sulfates sont les molécules qui auraient fortement contribué à endommager la couche d'ozone.
Le projet britannique SPICE se propose dans un premier temps de lancer un ballon qui ferait grimper un tuyau permettant de pulvériser de l'eau à un kilomètre dans l'atmosphère. Cette première phase permettrait d'injecter un jour des sulfates dans la stratosphère pour créer un écran solaire qui contribuerait à réduire le réchauffement climatique en cours.
Une cinquantaine d'organismes internationaux ont demandé hier au gouvernement britannique de cesser toute expérimentation dans la stratosphère et de mettre fin au projet SPICE, qui implique quatre universités, trois conseils de recherche, des ministères et la société Marshall Aerospace. Les groupes ont aussi lancé une pétition internationale.
Au même moment, on apprenait qu'un trou d'une ampleur sans précédent s'était créé au-dessus de l'Arctique durant les trois premiers mois de 2011 à environ 20 km de la surface terrestre. Plus de 80 % de l'ozone stratosphérique aurait disparu de cette zone. Les premières observations de ce trou ont été faites au début des années 80 et les deux plus importants ont été relevés en 1996 et 2005.
Pour Olivier Collin-Haubensak, un chercheur de l'UQAM qui a touché aux sciences de l'atmosphère, il y a un lien entre ce trou et les changements climatiques. La rotation de la Terre, dit-il, engendre un vortex qui concentre aux pôles les vapeurs d'eau des régions en voie de réchauffement et les acides des émissions industrielles. Ces sulfates contribuent à augmenter l'intensité de ce vortex et accentuent le refroidissement de l'air entre la troposphère et la stratosphère. Les molécules de chlore transportées par ce vortex réagissent aux froids extrêmes et agissent comme des catalyseurs qui détruisent les molécules de la mince couche d'ozone qui nous protègent des rayons ultraviolets. Ainsi, plus il y aura de chaleur au sol, plus on risque de voir ces sulfates contribuer à l'élargissement des trous dans la couche d'ozone.
C'est pourquoi, dit-il, le projet SPICE des Britanniques est tout simplement «délirant» puisqu'il pourrait contribuer à ces réactions. Il devrait faire l'objet d'une étude d'impacts préalable par la communauté internationale avant d'être autorisé.
En 2009, les parties à la Convention sur la diversité biologique (CBD) ont demandé en 2009 à tous les pays de la planète d'observer un moratoire complet sur les projets de géo-ingénierie. La CBD avait demandé, mais en vain, à l'Allemagne de mettre fin à une tentative de fertiliser avec de la limaille de fer les mers de l'Antarctique pour augmenter leur capacité de captage du CO2 afin de ralentir le réchauffement de la planète. L'expérience a eu cours, mais elle a été un échec.
Des organismes internationaux réclament l'abandon d'un projet d'écran solaire dans la stratosphère
Au moment où des chercheurs confirment l'existence d'un trou de plus de 2 millions de kilomètres carrés dans la couche d'ozone au-dessus de l'Arctique, des équipes britanniques s'apprêtent à amorcer une expérience en vue d'injecter dans la stratosphère des sulfates pour refroidir éventuellement la planète. Or les sulfates sont les molécules qui auraient fortement contribué à endommager la couche d'ozone.
Le projet britannique SPICE se propose dans un premier temps de lancer un ballon qui ferait grimper un tuyau permettant de pulvériser de l'eau à un kilomètre dans l'atmosphère. Cette première phase permettrait d'injecter un jour des sulfates dans la stratosphère pour créer un écran solaire qui contribuerait à réduire le réchauffement climatique en cours.
Une cinquantaine d'organismes internationaux ont demandé hier au gouvernement britannique de cesser toute expérimentation dans la stratosphère et de mettre fin au projet SPICE, qui implique quatre universités, trois conseils de recherche, des ministères et la société Marshall Aerospace. Les groupes ont aussi lancé une pétition internationale.
Au même moment, on apprenait qu'un trou d'une ampleur sans précédent s'était créé au-dessus de l'Arctique durant les trois premiers mois de 2011 à environ 20 km de la surface terrestre. Plus de 80 % de l'ozone stratosphérique aurait disparu de cette zone. Les premières observations de ce trou ont été faites au début des années 80 et les deux plus importants ont été relevés en 1996 et 2005.
Pour Olivier Collin-Haubensak, un chercheur de l'UQAM qui a touché aux sciences de l'atmosphère, il y a un lien entre ce trou et les changements climatiques. La rotation de la Terre, dit-il, engendre un vortex qui concentre aux pôles les vapeurs d'eau des régions en voie de réchauffement et les acides des émissions industrielles. Ces sulfates contribuent à augmenter l'intensité de ce vortex et accentuent le refroidissement de l'air entre la troposphère et la stratosphère. Les molécules de chlore transportées par ce vortex réagissent aux froids extrêmes et agissent comme des catalyseurs qui détruisent les molécules de la mince couche d'ozone qui nous protègent des rayons ultraviolets. Ainsi, plus il y aura de chaleur au sol, plus on risque de voir ces sulfates contribuer à l'élargissement des trous dans la couche d'ozone.
C'est pourquoi, dit-il, le projet SPICE des Britanniques est tout simplement «délirant» puisqu'il pourrait contribuer à ces réactions. Il devrait faire l'objet d'une étude d'impacts préalable par la communauté internationale avant d'être autorisé.
En 2009, les parties à la Convention sur la diversité biologique (CBD) ont demandé en 2009 à tous les pays de la planète d'observer un moratoire complet sur les projets de géo-ingénierie. La CBD avait demandé, mais en vain, à l'Allemagne de mettre fin à une tentative de fertiliser avec de la limaille de fer les mers de l'Antarctique pour augmenter leur capacité de captage du CO2 afin de ralentir le réchauffement de la planète. L'expérience a eu cours, mais elle a été un échec.
Par http://www.lcp.fr Réalisateur : Aurélie Marcireau Durée : 0 h 55 Date : 2009
Recherche sur les cellules souches embryonnaires, gestation par autrui (GPA), assistance médicale à la procréation (AMP)… Parlez-vous « bioéthique » ? A l’heure des Etats Généraux organisés sous l’égide du Ministère de la Santé, la bioéthique est la Une de l’actualité à la fois médicale, politique et sociale. Que doit-on autoriser ? Que doit-on interdire ? Comment envisager le progrès médical en tenant compte du respect de la vie et de la dignité humaine ? Quel sens à donner aux avancées médicales ? Aurélie Marcireau et Jean Achache ont rencontré Alain Claeys (député SRC de la Vienne) et Jean Leonetti (député UMP des Alpes Maritime), respectivement président et rapporteur de la mission d’information de l’Assemblée nationale sur la révision des lois de bioéthique. Leurs analyses et leurs réflexions, servent ainsi de fil conducteur à ce diagnostic étayé de nombreux témoignages d’experts, d’anciens ministres, de sociologues, d’associations, mais aussi de citoyens confrontés à ces questions. Parmi eux : le professeur René Frydman ; Marc Peschanski, directeur de recherche à l’INSERM ; l’ancien ministre de la santé, Jean-François Mattéi ; Alain Grimfeld, président du Comité consultatif national d’éthique (CCNE)…
Par http://www.lcp.fr Réalisateur : Aurélie Marcireau Durée : 0 h 55 Date : 2009
Recherche sur les cellules souches embryonnaires, gestation par autrui (GPA), assistance médicale à la procréation (AMP)… Parlez-vous « bioéthique » ? A l’heure des Etats Généraux organisés sous l’égide du Ministère de la Santé, la bioéthique est la Une de l’actualité à la fois médicale, politique et sociale. Que doit-on autoriser ? Que doit-on interdire ? Comment envisager le progrès médical en tenant compte du respect de la vie et de la dignité humaine ? Quel sens à donner aux avancées médicales ? Aurélie Marcireau et Jean Achache ont rencontré Alain Claeys (député SRC de la Vienne) et Jean Leonetti (député UMP des Alpes Maritime), respectivement président et rapporteur de la mission d’information de l’Assemblée nationale sur la révision des lois de bioéthique. Leurs analyses et leurs réflexions, servent ainsi de fil conducteur à ce diagnostic étayé de nombreux témoignages d’experts, d’anciens ministres, de sociologues, d’associations, mais aussi de citoyens confrontés à ces questions. Parmi eux : le professeur René Frydman ; Marc Peschanski, directeur de recherche à l’INSERM ; l’ancien ministre de la santé, Jean-François Mattéi ; Alain Grimfeld, président du Comité consultatif national d’éthique (CCNE)…
Première observation : la production des gisements existants connaît un déclin impressionnant. Il faudrait, pour combler le déficit, trouver 5 millions de barils en plus par jour, l'équivalent de la production de l'Iran ou de l'Irak ! Deuxième constat, tout aussi inquiétant : personne ne connaît exactement l'état des réserves. Les chiffres avancés sont probablement surestimés. Or sans pétrole, tout notre système économique s'effondre : transports, médecine, agro-industrie... Il y a donc urgence à trouver le moyen de mieux exploiter les ressources disponibles et à en découvrir de nouvelles. De laboratoire en laboratoire, de champ pétrolifère en plate-forme de forage, le documentaire fait le point sur les recherches en cours : forages de prospection, méthodes d'extraction plus performantes, étude de la formation des hydrocarbures. Sous la direction de Vladimir Kutcherov, des chercheurs russes affirment en effet que le pétrole n'est pas une énergie fossile, mais se forme en continu dans les profondeurs de la terre. Pour l'instant, les experts occidentaux considèrent cette théorie avec réserve, voire avec hostilité. Et continuent de privilégier la recherche de sites de plus en plus difficiles à exploiter comme l'a montré la catastrophe du golfe du Mexique.
Première observation : la production des gisements existants connaît un déclin impressionnant. Il faudrait, pour combler le déficit, trouver 5 millions de barils en plus par jour, l'équivalent de la production de l'Iran ou de l'Irak ! Deuxième constat, tout aussi inquiétant : personne ne connaît exactement l'état des réserves. Les chiffres avancés sont probablement surestimés. Or sans pétrole, tout notre système économique s'effondre : transports, médecine, agro-industrie... Il y a donc urgence à trouver le moyen de mieux exploiter les ressources disponibles et à en découvrir de nouvelles. De laboratoire en laboratoire, de champ pétrolifère en plate-forme de forage, le documentaire fait le point sur les recherches en cours : forages de prospection, méthodes d'extraction plus performantes, étude de la formation des hydrocarbures. Sous la direction de Vladimir Kutcherov, des chercheurs russes affirment en effet que le pétrole n'est pas une énergie fossile, mais se forme en continu dans les profondeurs de la terre. Pour l'instant, les experts occidentaux considèrent cette théorie avec réserve, voire avec hostilité. Et continuent de privilégier la recherche de sites de plus en plus difficiles à exploiter comme l'a montré la catastrophe du golfe du Mexique.
Face à la dengue, qui fait plus de vingt mille victimes par an, en majorité dans les pays tropicaux, les méthodes de lutte sont très limitées. Il n’existe ni vaccin ni traitement (préventif ou curatif) contre cette infection virale, transmise par des moustiques du genre Aedes, et notamment Aedes aegypti. Contrairement au vecteur du paludisme, Aedes pique dans la journée, rendant inefficace l’utilisation de moustiquaires et compliquant la prévention. Les programmes de lutte contre la dengue reposent dès lors sur la pulvérisation d’insecticides, l’emploi de larvicides et la protection individuelle contre les piqûres de ce moustique. Les résultats sont très insuffisants et l’incidence de la maladie progresse. C’est pourquoi certains chercheurs mettent leurs espoirs dans l’utilisation de techniques génétiques pour supprimer les populations de moustiques vecteurs. Et certains n’hésitent pas à agir dans la précipitation.
Lors de la conférence annuelle de la Société américaine de médecine tropicale et d’hygiène, en novembre 2010, le docteur Luke Alphey, co-fondateur d’Oxitec, une entreprise britannique de biotechnologie, présentait les résultats du premier lâcher de moustiques transgéniques dans la nature et déclarait : « Oxitec considère que cette approche pourrait être employée dans de nombreux pays pour aider au contrôle du moustique Aedes aegypti et ainsi prévenir la dengue. Nous travaillons sur ce projet depuis de nombreuses années, et nous nous sommes assurés de son efficacité et de son innocuité. Cet essai en représente la première démonstration en plein air, et nous sommes enchantés des résultats. » Les moustiques lâchés dans la nature — uniquement des mâles — ont été modifiés de telle sorte que leurs descendants ne soient pas viables hors du laboratoire. L’objectif est de provoquer une diminution (voire une extinction) de la population de moustiques vecteurs. L’annonce a fait l’effet d’une bombe, y compris chez les chercheurs du domaine, surpris d’apprendre qu’un tel lâcher venait d’être mené sans la moindre transparence. En effet, depuis bon nombre d’années, ces projets d’emploi de moustiques transgéniques comme outil de santé publique soulèvent des questions sociales et éthiques majeures. Il faut déterminer la meilleure manière d’impliquer les communautés concernées, mais aussi établir des règles internationales de biosécurité — comme c’est le cas pour les plantes transgéniques avec le protocole de Carthagène. Il est en effet souvent question de renforcement des capacités dans les programmes de recherche entre des partenaires du Nord et du Sud, mais ceci se limite souvent à de la formation de scientifiques ou à des aides techniques. Il serait temps de mettre en place des structures capables de s’engager dans le dialogue et la critique de questions scientifiques et technologiques dans les pays du Sud, afin de favoriser l’engagement des citoyens et leur permettre de participer activement aux choix technologiques qui les concernent. Pour beaucoup d’observateurs, Oxitec a ouvert la cage des moustiques transgéniques plus tôt que prévu.
Zones de prévalence de la dengue (source : OMS 2010)
Ce premier lâcher de moustiques transgéniques s’est déroulé sur l’île de Grand Cayman, un territoire britannique situé dans les Caraïbes, en deux étapes : un premier lâcher test fut effectué en 2009, suivi, en 2010, par un lâcher inondatif de trois millions de moustiques. Ce dernier, qui aurait permis d’éliminer 80 % de la population des moustiques, est considéré par Oxitec comme un succès. Mais la société n’a à ce jour pas publié ses résultats. Oxitec a conduit un autre essai en Malaisie dans la région de Bentong, un district de l’Etat de Pahang. L’objectif était de tester la survie et la dispersion des moustiques transgéniques mâles stériles, avec un lâcher d’environ six mille mâles. Ce test grandeur nature, mené de décembre 2010 à début janvier 2011, s’est conclu par des pulvérisations d’insecticide destinées à éliminer tout moustique ayant éventuellement survécu. Si l’essai sur Grand Cayman était resté relativement confidentiel, celui de Bentong fut condamné par les associations de consommateurs de Penang et par l’association environnementaliste Sahabat Alam Malaysia. Ces dernières ont été d’autant plus choquées que, suite à leurs protestations, les autorités de Kuala Lumpur avaient assuré que le lâcher était « reporté ». Bien que conduit en accord avec l’Institut pour la recherche médicale de Malaisie, l’essai n’a donné lieu à aucune information, ni dans la communauté scientifique, ni auprès du grand public. D’où l’impression d’un travail mené dans le secret — Luke Alphey s’en défend, estimant que la communication avec les populations n’est pas de son ressort, mais de celui des autorités publiques. Aucune de ces expériences ne s’accompagne d’une étude d’impact épidémiologique – qui devrait pourtant être l’objectif central d’une intervention menée au nom de la santé publique. La précipitation apparente de ces essais a également soulevé des soupçons d’ordre financier [1]. Autre critique, les populations locales directement concernées par ces lâchers n’ont à aucun moment été impliquées. Les partisans de ces essais semblent ainsi ignorants du fiasco qu’avaient rencontré les précédents travaux sur le contrôle des populations d’Aedes aegypti par des lâchers de mâles stériles. Dans les années 1970, en Inde, un programme (non basé sur l’utilisation de moustiques transgéniques) conduit sous l’égide de l’Organisation mondiale de la santé (OMS) et de l’Indian Council for Medical Research avait dû être arrêté. Il était en effet accusé — à tort — d’être lié à des programmes de recherche de guerre biologique. A l’origine des soupçons, le fait qu’Aedes aegypti est communément appelé « moustique de la fièvre jaune » — une maladie qui n’est pas présente en Inde, mais figure sur une liste d’agents potentiels de guerre biologique dressée par les Etats-Unis, lesquels participaient au financement des recherches [2]. Dans le cas présent, on peut légitimement se demander si la mise en œuvre sans débat d’une technologie qu’on sait sujette à controverse ne signe pas la volonté d’adopter le principe du fait accompli plutôt que celui de précaution. Les moustiques ignorant les frontières, il est, de plus, déplorable que ces recherches ne soient pas sous le contrôle strict d’un organisme international comme l’OMS. Les prochains tests et lâchers pourraient avoir lieu en Afrique. Une collaboration associe les universités de Keele (Royaume-Uni) et de Bamako (Mali) dans le cadre de la lutte contre le paludisme avec des moustiques capables de résister au parasite. Envisagée depuis de nombreuses années [3], cette approche ne fait pas appel à des moustiques stériles, mais à des moustiques résistants au parasite. Le but envisagé n’est pas de réduire la population de moustiques, mais de lui substituer une variante génétique ne transmettant pas le parasite. L’espoir des chercheurs est de faire se propager dans la population de moustiques un allèle résistant au plus dangereux des parasites du paludisme humain, Plasmodium falciparum. De nombreuses inconnues subsistent cependant quant à l’aptitude de ces moustiques modifiés à supplanter, par le biais de la seule sélection naturelle, leurs congénères sauvages, et sur les conséquences épidémiologiques de cette approche. La résistance génétique sera-t-elle active contre toutes les variantes du parasite ? Se propagera-t-elle dans la population de moustiques, et restera-t-elle efficace dans toutes les conditions environnementales ? Combien d’espèces de moustiques faudra-t-il entreprendre de transformer ? Comment les lâchers se feront-ils ? Quel sera l’impact sur la prévalence de la maladie dans les populations humaines ? Au-delà de ces questions scientifiques, qui restent ouvertes, les aspects sociaux et éthiques de l’opération devront être pris en compte, et les aspirations des populations concernées mises au premier plan.
Christophe Boëte est chercheur en écologie des maladies vectorielles, auteur (dir.) de Genetically modified mosquitoes for malaria control, Eurekah/Landes Bioscience, Georgetown, 2006. http://www.christopheboete.net/
Face à la dengue, qui fait plus de vingt mille victimes par an, en majorité dans les pays tropicaux, les méthodes de lutte sont très limitées. Il n’existe ni vaccin ni traitement (préventif ou curatif) contre cette infection virale, transmise par des moustiques du genre Aedes, et notamment Aedes aegypti. Contrairement au vecteur du paludisme, Aedes pique dans la journée, rendant inefficace l’utilisation de moustiquaires et compliquant la prévention. Les programmes de lutte contre la dengue reposent dès lors sur la pulvérisation d’insecticides, l’emploi de larvicides et la protection individuelle contre les piqûres de ce moustique. Les résultats sont très insuffisants et l’incidence de la maladie progresse. C’est pourquoi certains chercheurs mettent leurs espoirs dans l’utilisation de techniques génétiques pour supprimer les populations de moustiques vecteurs. Et certains n’hésitent pas à agir dans la précipitation.
Lors de la conférence annuelle de la Société américaine de médecine tropicale et d’hygiène, en novembre 2010, le docteur Luke Alphey, co-fondateur d’Oxitec, une entreprise britannique de biotechnologie, présentait les résultats du premier lâcher de moustiques transgéniques dans la nature et déclarait : « Oxitec considère que cette approche pourrait être employée dans de nombreux pays pour aider au contrôle du moustique Aedes aegypti et ainsi prévenir la dengue. Nous travaillons sur ce projet depuis de nombreuses années, et nous nous sommes assurés de son efficacité et de son innocuité. Cet essai en représente la première démonstration en plein air, et nous sommes enchantés des résultats. » Les moustiques lâchés dans la nature — uniquement des mâles — ont été modifiés de telle sorte que leurs descendants ne soient pas viables hors du laboratoire. L’objectif est de provoquer une diminution (voire une extinction) de la population de moustiques vecteurs. L’annonce a fait l’effet d’une bombe, y compris chez les chercheurs du domaine, surpris d’apprendre qu’un tel lâcher venait d’être mené sans la moindre transparence. En effet, depuis bon nombre d’années, ces projets d’emploi de moustiques transgéniques comme outil de santé publique soulèvent des questions sociales et éthiques majeures. Il faut déterminer la meilleure manière d’impliquer les communautés concernées, mais aussi établir des règles internationales de biosécurité — comme c’est le cas pour les plantes transgéniques avec le protocole de Carthagène. Il est en effet souvent question de renforcement des capacités dans les programmes de recherche entre des partenaires du Nord et du Sud, mais ceci se limite souvent à de la formation de scientifiques ou à des aides techniques. Il serait temps de mettre en place des structures capables de s’engager dans le dialogue et la critique de questions scientifiques et technologiques dans les pays du Sud, afin de favoriser l’engagement des citoyens et leur permettre de participer activement aux choix technologiques qui les concernent. Pour beaucoup d’observateurs, Oxitec a ouvert la cage des moustiques transgéniques plus tôt que prévu.
Zones de prévalence de la dengue (source : OMS 2010)
Ce premier lâcher de moustiques transgéniques s’est déroulé sur l’île de Grand Cayman, un territoire britannique situé dans les Caraïbes, en deux étapes : un premier lâcher test fut effectué en 2009, suivi, en 2010, par un lâcher inondatif de trois millions de moustiques. Ce dernier, qui aurait permis d’éliminer 80 % de la population des moustiques, est considéré par Oxitec comme un succès. Mais la société n’a à ce jour pas publié ses résultats. Oxitec a conduit un autre essai en Malaisie dans la région de Bentong, un district de l’Etat de Pahang. L’objectif était de tester la survie et la dispersion des moustiques transgéniques mâles stériles, avec un lâcher d’environ six mille mâles. Ce test grandeur nature, mené de décembre 2010 à début janvier 2011, s’est conclu par des pulvérisations d’insecticide destinées à éliminer tout moustique ayant éventuellement survécu. Si l’essai sur Grand Cayman était resté relativement confidentiel, celui de Bentong fut condamné par les associations de consommateurs de Penang et par l’association environnementaliste Sahabat Alam Malaysia. Ces dernières ont été d’autant plus choquées que, suite à leurs protestations, les autorités de Kuala Lumpur avaient assuré que le lâcher était « reporté ». Bien que conduit en accord avec l’Institut pour la recherche médicale de Malaisie, l’essai n’a donné lieu à aucune information, ni dans la communauté scientifique, ni auprès du grand public. D’où l’impression d’un travail mené dans le secret — Luke Alphey s’en défend, estimant que la communication avec les populations n’est pas de son ressort, mais de celui des autorités publiques. Aucune de ces expériences ne s’accompagne d’une étude d’impact épidémiologique – qui devrait pourtant être l’objectif central d’une intervention menée au nom de la santé publique. La précipitation apparente de ces essais a également soulevé des soupçons d’ordre financier [1]. Autre critique, les populations locales directement concernées par ces lâchers n’ont à aucun moment été impliquées. Les partisans de ces essais semblent ainsi ignorants du fiasco qu’avaient rencontré les précédents travaux sur le contrôle des populations d’Aedes aegypti par des lâchers de mâles stériles. Dans les années 1970, en Inde, un programme (non basé sur l’utilisation de moustiques transgéniques) conduit sous l’égide de l’Organisation mondiale de la santé (OMS) et de l’Indian Council for Medical Research avait dû être arrêté. Il était en effet accusé — à tort — d’être lié à des programmes de recherche de guerre biologique. A l’origine des soupçons, le fait qu’Aedes aegypti est communément appelé « moustique de la fièvre jaune » — une maladie qui n’est pas présente en Inde, mais figure sur une liste d’agents potentiels de guerre biologique dressée par les Etats-Unis, lesquels participaient au financement des recherches [2]. Dans le cas présent, on peut légitimement se demander si la mise en œuvre sans débat d’une technologie qu’on sait sujette à controverse ne signe pas la volonté d’adopter le principe du fait accompli plutôt que celui de précaution. Les moustiques ignorant les frontières, il est, de plus, déplorable que ces recherches ne soient pas sous le contrôle strict d’un organisme international comme l’OMS. Les prochains tests et lâchers pourraient avoir lieu en Afrique. Une collaboration associe les universités de Keele (Royaume-Uni) et de Bamako (Mali) dans le cadre de la lutte contre le paludisme avec des moustiques capables de résister au parasite. Envisagée depuis de nombreuses années [3], cette approche ne fait pas appel à des moustiques stériles, mais à des moustiques résistants au parasite. Le but envisagé n’est pas de réduire la population de moustiques, mais de lui substituer une variante génétique ne transmettant pas le parasite. L’espoir des chercheurs est de faire se propager dans la population de moustiques un allèle résistant au plus dangereux des parasites du paludisme humain, Plasmodium falciparum. De nombreuses inconnues subsistent cependant quant à l’aptitude de ces moustiques modifiés à supplanter, par le biais de la seule sélection naturelle, leurs congénères sauvages, et sur les conséquences épidémiologiques de cette approche. La résistance génétique sera-t-elle active contre toutes les variantes du parasite ? Se propagera-t-elle dans la population de moustiques, et restera-t-elle efficace dans toutes les conditions environnementales ? Combien d’espèces de moustiques faudra-t-il entreprendre de transformer ? Comment les lâchers se feront-ils ? Quel sera l’impact sur la prévalence de la maladie dans les populations humaines ? Au-delà de ces questions scientifiques, qui restent ouvertes, les aspects sociaux et éthiques de l’opération devront être pris en compte, et les aspirations des populations concernées mises au premier plan.
Christophe Boëte est chercheur en écologie des maladies vectorielles, auteur (dir.) de Genetically modified mosquitoes for malaria control, Eurekah/Landes Bioscience, Georgetown, 2006. http://www.christopheboete.net/
Je suis tombé par hasard ce matin sur un documentaire très intéressant sur la robotisation des animaux. Le terme peut paraître étrange mais les faits sont tout à fait réels et très étonnant.Je vais vous faire un petit récapitulatif de ce que l’avenir et les scientifiques nous promettent.
L’histoire Tout commence dans les années 1950 avec José Delgado un neuro-physiologiste espagnol. Delgado a longtemps étudié les épilepsies et souhaité trouver un moyen d’arrêter ces crises. Il commença alors à travailler sur la création et l’implantation d’électrodes dans certaines parties du cerveau : ce qui porte aujourd’hui le nom d’électrostimulation du cerveau (ESB). Sa première expérience fut réalisée dans une arène de corrida à Cordoue (1963). Il avait alors fait implanter des électrodes dans le cerveau d’un taureau. Une télécommande était utilisée pour envoyer des impulsions électriques dans le noyau caudé de l’animal. Placé dans une arène le taureau chargea l’assistant du professeur, qui appuya sur le bouton de sa télécommande. L’animal s’arrêta net, et devint alors craintif. Cette expérience fut très critiquée par une grande majorité de scientifiques. En effet, s’il est possible d’agir à distance sur le comportement d’un animal, il est évident que le faire sur un humain ne doit pas être plus compliqué. On retombe alors dans la traditionnelle confrontation entre Ethique et Science. Je vous encourage à regarder cette vidéo d’une durée de 7 minutes sur les expériences du professeur Delgado, et notamment celle du taureau.
Nous avons besoin d’un programme de psychochirurgie pour le contrôle politique de notre société. Le but est le contrôle physique de l’esprit. Chacun qui dévie de la norme donnée peut être chirurgicalement mutilé. L’individu peut penser que la réalité la plus importante est sa propre existence, mais c’est seulement son point de vue personnel. Même si cette attitude libérale est très séduisante, ceci manque de perspective historique. L’homme n’a pas le droit de développer sa propre façon de penser. Nous devons contrôler le cerveau électriquement. Un jour, les armées et les généraux seront contrôlés par stimulation électrique du cerveau.
Bref, on en parle peu souvent mais la manipulation mentale est, faut-il s’en étonner, le rêve de beaucoup de gouvernements. On peut rappeler le Projet MK-Ultra de la CIA qui se déroula des années 1950 à 1970. Son but était la manipulation des esprits à travers l’injection de substances psychotropes. Elle fit d’autant plus de bruit que les expériences n’étaient en général pas testées sur des personnes consentantes. En effet, plus de 30 universités ont « ouvert leurs portes » à la CIA qui pu expérimenter leurs tests sur « toutes les catégories sociales, hautes et basses, américains et étrangers » sans que les cobayes, les premiers concernés, en soient au courant. (si le sujet vous intéresse, voici le lien sur Wikipedia) Pour l’anecdote sur le contrôle mental, il est amusant de rappeler les actions de la DARBA (financée par l’armée américaine) qui a tenté pendant plusieurs années de créer une « bombe gay » dont il est inutile de vous décrire les conséquences sur les armées. Toutefois la manipulation mentale électronique s’avère beaucoup plus efficace. On passe maintenant aux aspects médicaux de ces évolutions. Vous comprenez bien que si, dans l’expérience de Delgado, le taureau s’arrête net, c’est qu’on a agi sur une partie de son cerveau responsable de ses mouvements. Les progrès technologiques de ses dernières années ont permis aux chercheurs d’étudier le cerveau de très près. Même s’ils ne saisissent pas encore toute la complexité de cet organe, on peut désormais savoir quelle est la partie du cerveau qui est impliquée dans un mouvement précis. Cela a permis, par exemple, de « créer » les premiers cyborgs. Bon je vous vois déjà partis dans les représentations du genre Terminator et compagnie. Non. Un cyborg est simplement un être humain qui a reçu des greffes de parties mécaniques. Claudia Mithchell – Un exemple de cyborg : Vous imaginez alors les progrès scientifiques désormais réalisables et la vie de milliers d’handicapés qui pourront enfin retrouver la mobilité et l’usage d’un membre perdu. Pour la petite anecdote le premier cyborg se nommait Johnny Ray. Au cours d’une soirée le malheureux se fit poignarder : il restera paralysé jusqu’à la fin de sa vie. C’est le professeur Philip Kennedy qui lui demanda alors de participer à l’expérience. Johnny accepta, on lui implanta une électrode dans le cerveau. Le professeur lui demanda alors de contrôler le curseur de l’ordinateur auquel il était relié : il y parvint du premier coup, sans aucun entraînement. Mais l’expérience la plus troublante fut celle réalisée sur un singe, par un professeur américain dont j’ai oublié le nom. Le singe s’était fait implanter une puce visant à contrôler un bras mécanique. Il est évident que le singe n’allait pas du premier coup se mettre à penser à ce que la pince bouge, quel intérêt aurait-il à faire ça. Alors les scientifiques lui donnèrent une manette qu’il actionnait pour faire bouger le bras mécanique : le but du jeu était de déplacer un curseur sur une cible. Au fil des jours le primate s’améliora au jeu, jusqu’à ce qu’il lâcha complètement les manettes pour contrôler le bras par ses pensées. Plus tard, d’autres expériences montrèrent que les primates étaient capables d’actionner par la pensée et sans aucun entraînement, un bras mécanique afin de se nourrir.
La singularité technologique
Ce concept a été mis au point par Vernor Vinge, un chercheur américain et auteur de science-fiction qui pense que l’évolution technologique est telle, qu’elle finira un beau jour par dépasser ses créateurs. Selon lui l’Intelligence Artificielle finira par surpasser l’intelligence humaine. Les robots créés par l’homme pourront alors s’auto-améliorer et créer eux-mêmes des machines encore plus puissantes. J’explique : Selon Gordon Moore (un des créateurs d’Intel) la puissance de calculs des ordinateurs évoluerait à un rythme exponentiel. En effet, la loi qu’il a créée (et qui porte son nom) estime que les performances des microprocesseurs doublent tous les deux ans : ce qui est vrai. Toutefois il faut la nuancer car aujourd’hui, la plupart des scientifiques s’accordent à dire que cette loi est vouée à l’échec à moyen terme. En effet, s’il est possible de réduire la taille des composants à des valeurs totalement incroyables (le transistor MOSFET a bien été réduit à 18 nanomètres, soit 70 atomes alignés) il n’est évidemment pas possible de les réduire à l’infini. La loi se prend alors « The Wall » (Le mur – en anglais). Elle se retrouve elle même confrontée à d’autres lois :
celle de Rock : qui considère que le coût d’une unité de fabrication de semi-conducteur double tous les 4 ans. Ainsi il faut compter plus de 7 milliards de dollars aujourd’hui pour créer une usine de création de composants se rapprochant de plus en plus des limites physiques.
celle de Wirth : les softwares et les hardwares évoluent de façon contraire. Les hardwares (composants informatiques) se développent en puissance, alors que les softwares (logiciels informatiques) deviennent eux de plus en plus lourds. Ainsi l’utilisateur quelconque n’aura pas l’impression que son ordinateur est plus puissant s’il doit ramer lors de l’exécution d’un logiciel.
Mais le développement informatique est bien là et ses évolutions sont incroyables : un ordinateur de nos jours est plus d’un milliard de fois plus puissant qu’un ordinateur des années 1985. Certains scientifiques estiment que les ordinateurs des prochaines années connaîtront la même évolution. Alors on voit venir les premiers contestataires qui essayent de faire prendre conscience aux publics des dangers d’un phénomène. On peut alors rappeler l’action de Theodore Kaczynski, un mathématicien américain plus connu sous le nom de Unabomber qui tua 3 personnes et en blessa 29 à travers des envoies de colis piégés. Ses idées étaient les suivantes :
Le progrès technologique nous conduit à un désastre inéluctable.
Seul l’effondrement de la civilisation moderne peut empêcher le désastre.
La gauche politique est la première ligne de défense de la Société technologique contre la révolution.
Ce qu’il faut, c’est un nouveau mouvement révolutionnaire, voué à l’éradication de la société technologique, et qui prendra des mesures pour tenir à l’écart tous les gauchistes et consorts.
L’homme est aujourd’hui en prison, où il purge la peine maximale après avoir fait l’objet de la chasse à l’homme la plus couteuse de l’histoire du FBI. Si l’idée d’un soulèvement des machines peut paraître totalement folle, il faudra de plus en plus s’habituer à vivre avec, car tout développement entraîne sa contrepartie d’opposition. La singularité technologique (la prise de pouvoir des machines) n’aura lieu, si on en croit les scientifiques qui la soutienne, qu’en 2030, ce qui nous laisse encore un peu de temps pour profiter de nos libertés civiques. Pour finir, qu’on soit pour ou contre cette théorie, il est bon de rappeler que tous le monde s’accorde pour dire que dans un futur proche nous serons probablement tous équipés de machines nous permettant d’augmenter nos capacités, qu’elles soient physiques ou intellectuelles. Il est alors nécessaire de se souvenir de cette phrase de Rabelais qui déjà au 16ème siècle rappelait la nécessité de la sagesse en science :
Science sans conscience n’est que ruine de l’âme François Rabelais
Je suis tombé par hasard ce matin sur un documentaire très intéressant sur la robotisation des animaux. Le terme peut paraître étrange mais les faits sont tout à fait réels et très étonnant.Je vais vous faire un petit récapitulatif de ce que l’avenir et les scientifiques nous promettent.
L’histoire Tout commence dans les années 1950 avec José Delgado un neuro-physiologiste espagnol. Delgado a longtemps étudié les épilepsies et souhaité trouver un moyen d’arrêter ces crises. Il commença alors à travailler sur la création et l’implantation d’électrodes dans certaines parties du cerveau : ce qui porte aujourd’hui le nom d’électrostimulation du cerveau (ESB). Sa première expérience fut réalisée dans une arène de corrida à Cordoue (1963). Il avait alors fait implanter des électrodes dans le cerveau d’un taureau. Une télécommande était utilisée pour envoyer des impulsions électriques dans le noyau caudé de l’animal. Placé dans une arène le taureau chargea l’assistant du professeur, qui appuya sur le bouton de sa télécommande. L’animal s’arrêta net, et devint alors craintif. Cette expérience fut très critiquée par une grande majorité de scientifiques. En effet, s’il est possible d’agir à distance sur le comportement d’un animal, il est évident que le faire sur un humain ne doit pas être plus compliqué. On retombe alors dans la traditionnelle confrontation entre Ethique et Science. Je vous encourage à regarder cette vidéo d’une durée de 7 minutes sur les expériences du professeur Delgado, et notamment celle du taureau.
Nous avons besoin d’un programme de psychochirurgie pour le contrôle politique de notre société. Le but est le contrôle physique de l’esprit. Chacun qui dévie de la norme donnée peut être chirurgicalement mutilé. L’individu peut penser que la réalité la plus importante est sa propre existence, mais c’est seulement son point de vue personnel. Même si cette attitude libérale est très séduisante, ceci manque de perspective historique. L’homme n’a pas le droit de développer sa propre façon de penser. Nous devons contrôler le cerveau électriquement. Un jour, les armées et les généraux seront contrôlés par stimulation électrique du cerveau.
Bref, on en parle peu souvent mais la manipulation mentale est, faut-il s’en étonner, le rêve de beaucoup de gouvernements. On peut rappeler le Projet MK-Ultra de la CIA qui se déroula des années 1950 à 1970. Son but était la manipulation des esprits à travers l’injection de substances psychotropes. Elle fit d’autant plus de bruit que les expériences n’étaient en général pas testées sur des personnes consentantes. En effet, plus de 30 universités ont « ouvert leurs portes » à la CIA qui pu expérimenter leurs tests sur « toutes les catégories sociales, hautes et basses, américains et étrangers » sans que les cobayes, les premiers concernés, en soient au courant. (si le sujet vous intéresse, voici le lien sur Wikipedia) Pour l’anecdote sur le contrôle mental, il est amusant de rappeler les actions de la DARBA (financée par l’armée américaine) qui a tenté pendant plusieurs années de créer une « bombe gay » dont il est inutile de vous décrire les conséquences sur les armées. Toutefois la manipulation mentale électronique s’avère beaucoup plus efficace. On passe maintenant aux aspects médicaux de ces évolutions. Vous comprenez bien que si, dans l’expérience de Delgado, le taureau s’arrête net, c’est qu’on a agi sur une partie de son cerveau responsable de ses mouvements. Les progrès technologiques de ses dernières années ont permis aux chercheurs d’étudier le cerveau de très près. Même s’ils ne saisissent pas encore toute la complexité de cet organe, on peut désormais savoir quelle est la partie du cerveau qui est impliquée dans un mouvement précis. Cela a permis, par exemple, de « créer » les premiers cyborgs. Bon je vous vois déjà partis dans les représentations du genre Terminator et compagnie. Non. Un cyborg est simplement un être humain qui a reçu des greffes de parties mécaniques. Claudia Mithchell – Un exemple de cyborg : Vous imaginez alors les progrès scientifiques désormais réalisables et la vie de milliers d’handicapés qui pourront enfin retrouver la mobilité et l’usage d’un membre perdu. Pour la petite anecdote le premier cyborg se nommait Johnny Ray. Au cours d’une soirée le malheureux se fit poignarder : il restera paralysé jusqu’à la fin de sa vie. C’est le professeur Philip Kennedy qui lui demanda alors de participer à l’expérience. Johnny accepta, on lui implanta une électrode dans le cerveau. Le professeur lui demanda alors de contrôler le curseur de l’ordinateur auquel il était relié : il y parvint du premier coup, sans aucun entraînement. Mais l’expérience la plus troublante fut celle réalisée sur un singe, par un professeur américain dont j’ai oublié le nom. Le singe s’était fait implanter une puce visant à contrôler un bras mécanique. Il est évident que le singe n’allait pas du premier coup se mettre à penser à ce que la pince bouge, quel intérêt aurait-il à faire ça. Alors les scientifiques lui donnèrent une manette qu’il actionnait pour faire bouger le bras mécanique : le but du jeu était de déplacer un curseur sur une cible. Au fil des jours le primate s’améliora au jeu, jusqu’à ce qu’il lâcha complètement les manettes pour contrôler le bras par ses pensées. Plus tard, d’autres expériences montrèrent que les primates étaient capables d’actionner par la pensée et sans aucun entraînement, un bras mécanique afin de se nourrir.
La singularité technologique
Ce concept a été mis au point par Vernor Vinge, un chercheur américain et auteur de science-fiction qui pense que l’évolution technologique est telle, qu’elle finira un beau jour par dépasser ses créateurs. Selon lui l’Intelligence Artificielle finira par surpasser l’intelligence humaine. Les robots créés par l’homme pourront alors s’auto-améliorer et créer eux-mêmes des machines encore plus puissantes. J’explique : Selon Gordon Moore (un des créateurs d’Intel) la puissance de calculs des ordinateurs évoluerait à un rythme exponentiel. En effet, la loi qu’il a créée (et qui porte son nom) estime que les performances des microprocesseurs doublent tous les deux ans : ce qui est vrai. Toutefois il faut la nuancer car aujourd’hui, la plupart des scientifiques s’accordent à dire que cette loi est vouée à l’échec à moyen terme. En effet, s’il est possible de réduire la taille des composants à des valeurs totalement incroyables (le transistor MOSFET a bien été réduit à 18 nanomètres, soit 70 atomes alignés) il n’est évidemment pas possible de les réduire à l’infini. La loi se prend alors « The Wall » (Le mur – en anglais). Elle se retrouve elle même confrontée à d’autres lois :
celle de Rock : qui considère que le coût d’une unité de fabrication de semi-conducteur double tous les 4 ans. Ainsi il faut compter plus de 7 milliards de dollars aujourd’hui pour créer une usine de création de composants se rapprochant de plus en plus des limites physiques.
celle de Wirth : les softwares et les hardwares évoluent de façon contraire. Les hardwares (composants informatiques) se développent en puissance, alors que les softwares (logiciels informatiques) deviennent eux de plus en plus lourds. Ainsi l’utilisateur quelconque n’aura pas l’impression que son ordinateur est plus puissant s’il doit ramer lors de l’exécution d’un logiciel.
Mais le développement informatique est bien là et ses évolutions sont incroyables : un ordinateur de nos jours est plus d’un milliard de fois plus puissant qu’un ordinateur des années 1985. Certains scientifiques estiment que les ordinateurs des prochaines années connaîtront la même évolution. Alors on voit venir les premiers contestataires qui essayent de faire prendre conscience aux publics des dangers d’un phénomène. On peut alors rappeler l’action de Theodore Kaczynski, un mathématicien américain plus connu sous le nom de Unabomber qui tua 3 personnes et en blessa 29 à travers des envoies de colis piégés. Ses idées étaient les suivantes :
Le progrès technologique nous conduit à un désastre inéluctable.
Seul l’effondrement de la civilisation moderne peut empêcher le désastre.
La gauche politique est la première ligne de défense de la Société technologique contre la révolution.
Ce qu’il faut, c’est un nouveau mouvement révolutionnaire, voué à l’éradication de la société technologique, et qui prendra des mesures pour tenir à l’écart tous les gauchistes et consorts.
L’homme est aujourd’hui en prison, où il purge la peine maximale après avoir fait l’objet de la chasse à l’homme la plus couteuse de l’histoire du FBI. Si l’idée d’un soulèvement des machines peut paraître totalement folle, il faudra de plus en plus s’habituer à vivre avec, car tout développement entraîne sa contrepartie d’opposition. La singularité technologique (la prise de pouvoir des machines) n’aura lieu, si on en croit les scientifiques qui la soutienne, qu’en 2030, ce qui nous laisse encore un peu de temps pour profiter de nos libertés civiques. Pour finir, qu’on soit pour ou contre cette théorie, il est bon de rappeler que tous le monde s’accorde pour dire que dans un futur proche nous serons probablement tous équipés de machines nous permettant d’augmenter nos capacités, qu’elles soient physiques ou intellectuelles. Il est alors nécessaire de se souvenir de cette phrase de Rabelais qui déjà au 16ème siècle rappelait la nécessité de la sagesse en science :
Science sans conscience n’est que ruine de l’âme François Rabelais
Avec ce texte, Hervé Le Crosnier inaugure le blog « Puces savantes », où seront mises en question les technologies qui semblent continuellement s’imposer aux citoyens, sans que les rapports de forces qui les préparent et les transformations qu’elles impliquent dans la société soient toujours exposés ni débattus.
Le journal Science a publié, jeudi 20 mai 2010, un article d’une équipe de recherche, emmenée par Craig Venter, revendiquant la création de la première cellule dotée d’un ADN entièrement réalisé par ordinateur [1]. Pour Venter, cela représente « une étape importante scientifiquement et philosophiquement ». Si l’on veut bien quitter le mode dithyrambique sur lequel cette annonce est relayée par la presse, cette publication scientifique, et les recherches menées pour parvenir à ce résultat, posent de nombreuses questions qui méritent toute l’attention des citoyens, des décideurs politiques, des associations de la société civile, et doit interroger toutes les communautés scientifiques. Les associations de la société civile, notamment ETC Group, demandent un moratoire sur les techniques employées, dites de « biologie synthétique », et appellent à une réflexion globale sur la génétique extrême.
« La création de la première cellule vivante dotée d’un génome synthétique dévoilée jeudi représente une avancée dans la compréhension des mécanismes de la vie et ouvre la voie à la fabrication d’organismes artificiels pouvant par exemple produire du carburant propre. » C’est avec cette introduction pour le moins spectaculaire que débute la dépêche AFP constituant la première annonce en français de cette publication. Cette manière de transformer des expériences de laboratoire en recettes miracles pour les maux de l’économie et les souffrances de la planète est devenu le mode principal de communication autour de la science. Au détriment à la fois de l’analyse des travaux de recherche, et de la capacité des citoyens et de leurs représentants à évaluer les travaux et à en tirer les conséquences politiques.
En réalité, l’expérience est plus modeste... mais aussi plus inquiétante. Il s’est agi de synthétiser un chromosome dont le code a été écrit par ordinateur, de le construire en s’aidant de levures, de l’introduire ensuite dans une cellule, et de le retrouver après la division de cette cellule. Pour vérifier cela, des « filigranes » ont été introduits par l’équipe de Craig Venter dans le code du chromosome.
La synthèse d’ADN a été réalisée pour la première fois au début des années 1970 par Har Gobin Khorana, et comportait 207 paires de bases. En 2002, Eckard Wimmer indiquait avoir recréé un virus de la polio. On a, depuis, recréé l’ADN du virus de la grippe espagnole de 1918, et amélioré les techniques mises en œuvre. On peut dorénavant commander des brins d’ADN en envoyant leur séquence par courrier électronique. Il existe près de quarante entreprises de synthèse génomique, dont deux en France. Ce qu’apporte l’expérience du J. Craig Venter Institute tient dans l’amélioration des techniques de construction du chomosome et dans la capacité de le retrouver, après la division cellulaire, signe qu’il a pris le contrôle de la cellule. Pour David Baltimore, éminent généticien du Caltech, cité par The New York Times, il n’y a pas création de la vie, mais une recopie. Un travail technique dont il reconnaît par ailleurs la qualité, mais qui lui semble loin des superlatifs employés par l’équipe de Craig Venter pour « vendre » son expérience.
Car vendre est bien l’objectif de ces recherches en biologie synthétique. Venter a déposé en mai 2007 un brevet aux Etats-Unis (sous le numéro d’application 20070122826) et un brevet international (PTO WO2007047148). Il souhaite ainsi devenir propriétaire des techniques de construction d’un ensemble « minimal » d’ADN susceptible de se répliquer à l’image du vivant. Il revendique de même la propriété des processus de production d’hydrogène et d’éthanol qui pourraient être obtenus par des techniques similaires. Nous sommes loin de la recherche visant à « comprendre la nature » et à expliquer les phénomènes biologiques... mais bien dans la course aux applications, susceptibles de faire frétiller les investisseurs du capital-risque.
A terme, il s’agit de contrôler les retombées économiques ou financières de la bulle spéculative du marché du carbone. Dans cette compétition débridée, l’équipe de Craig Venter est associée à Synthetic Genomics Inc., une entreprise elle aussi dirigée par Craig Venter, appuyée par le gouvernement des Etats-Unis, dont le secrétaire d’Etat à l’énergie, le prix Nobel de physique Steven Chu, est un fervent partisan de la biologie synthétique. Une entreprise en partenariat avec les pétroliers Exxon Mobil et BP, dont on peut admirer actuellement dans le Golfe du Mexique la capacité à mettre en œuvre des techniques sans risque !
Une ambition prométhéenne
La production d’hydrocarbure par des bactéries pilotées par un ADN artificiel n’est certes pas pour demain. Mais le principe même de telles études, organisées par des objectifs financiers et agissant comme divertissement médiatique aux problèmes actuels de la planète et de la société, peut être mis en cause.
Car les craintes sont importantes : développement d’armements biologiques ; conséquences pour les employés des laboratoires en contact avec des virus extrêmement pathogènes ; et risques d’un relâchement accidentel dans l’environnement d’organismes de synthèse [2].
La course industrielle, mais aussi les guerres d’ego des chercheurs impliqués, plaident pour une réflexion démocratique globale sur l’opportunité et les conditions d’une telle recherche. Il n’est pas possible d’abandonner la décision aux seuls chercheurs du domaine considéré. Ni de les laisser vendre, survendre et faire briller à coup de strass médiatique des promesses dont on peut largement mettre en cause la crédibilité.
Dans cette réflexion, n’oublions jamais les volontés prométhéennes d’une partie de la communauté scientifique, particulièrement au sein des mavericks (fous) de la génomique à l’origine de la publication de ce jour. Aux journalistes qui lui demandaient s’il n’avait pas le sentiment de jouer à Dieu, Hamilton O. Smith, prix Nobel, actionnaire de Synthetic Genomic Inc., et l’un des signataires de l’article de Science, répond par sa blague favorite : « Nous ne jouons pas. » Le code génétique utilisé pour l’expérience publiée aujourd’hui comporte – ce qu’on nous demande évidemment de prendre au second degré – des marques permettant de tracer le chromosome, et, parmi elles, cette citation du philosophe Felix Adler, tirée du livre American Prometheus, biographie de l’inventeur de la bombe atomique Oppenheimer : « Ne regardez pas les choses comme elles sont, mais comme elles pourraient être. »
Car au fond, c’est bien une logique prométhéenne qui se répand dans la recherche aujourd’hui : une volonté de « réparer la machine-terre », depuis sa structure globale par le « géo-engineering » jusqu’à la nanomatière, en passant évidemment par la « maîtrise » du vivant [3]. La nature n’est plus le modèle unique et singulier que la science doit interpréter, mais un simple objet que les ingénieurs doivent améliorer.... et si possible au nom de la « liberté du chercheur », c’est-à-dire sans que les citoyens puissent s’emparer ni des décisions d’orientation de la recherche, ni de l’évaluation des conséquences tant sur l’environnement naturel que sur les fondements sociaux... ni même des conséquences philosophiques, avec cette quête extrême du pouvoir sur le vivant.
Trop souvent, les chercheurs de ces disciplines duales (qui sont grosses de risques énormes au nom de bénéfices relevant de la promesse) souhaitent régler « entre eux », et avec les entreprises spécialisées de leur secteur, les questions éthiques et de sécurité. C’est ainsi dans le droit fil de la fameuse Conférence d’Asilomar de 1975 sur les biotechnologies que se sont tenues en mai 2006 la conférence « Synthetic Biology 2.0 » à Berkeley, et plus récemment, en avril 2010, une conférence Asilomar 2 sur la géo-ingénierie. Dans tous les cas, on invite des philosophes pour parler de règles éthiques faisant croire à la « responsabilité » des acteurs... pour mieux définir en dehors du regard public, et entre « partenaires » investis dans les mêmes rapports d’argent et de pouvoir, des règles d’auto-régulation que l’on souhaite s’auto-appliquer.
C’est pour cela que de nombreuses associations de la société civile, à la suite de la très influente association ETC Group, ou en France la Fondation Sciences Citoyennes, souhaitent organiser des débats mondiaux pour éviter que ne soit ouverte la boîte de Pandore. Le Forum mondial Sciences & Démocratie, dont la seconde édition se tiendra à Dakar en février 2011, devrait aborder ces questions essentielles. Car les technologies en jeu forment une épée de Damoclès excessivement tranchante. C’est en octobre 2004 déjà qu’un éditorial de la revue scientifique Nature précisait : « Si les biologistes sont sur le point de synthétiser de nouvelles formes de vie, l’étendue des désastres qui pourraient être provoqués volontairement ou par inadvertance est potentiellement immense. »
Avec ce texte, Hervé Le Crosnier inaugure le blog « Puces savantes », où seront mises en question les technologies qui semblent continuellement s’imposer aux citoyens, sans que les rapports de forces qui les préparent et les transformations qu’elles impliquent dans la société soient toujours exposés ni débattus.
Le journal Science a publié, jeudi 20 mai 2010, un article d’une équipe de recherche, emmenée par Craig Venter, revendiquant la création de la première cellule dotée d’un ADN entièrement réalisé par ordinateur [1]. Pour Venter, cela représente « une étape importante scientifiquement et philosophiquement ». Si l’on veut bien quitter le mode dithyrambique sur lequel cette annonce est relayée par la presse, cette publication scientifique, et les recherches menées pour parvenir à ce résultat, posent de nombreuses questions qui méritent toute l’attention des citoyens, des décideurs politiques, des associations de la société civile, et doit interroger toutes les communautés scientifiques. Les associations de la société civile, notamment ETC Group, demandent un moratoire sur les techniques employées, dites de « biologie synthétique », et appellent à une réflexion globale sur la génétique extrême.
« La création de la première cellule vivante dotée d’un génome synthétique dévoilée jeudi représente une avancée dans la compréhension des mécanismes de la vie et ouvre la voie à la fabrication d’organismes artificiels pouvant par exemple produire du carburant propre. » C’est avec cette introduction pour le moins spectaculaire que débute la dépêche AFP constituant la première annonce en français de cette publication. Cette manière de transformer des expériences de laboratoire en recettes miracles pour les maux de l’économie et les souffrances de la planète est devenu le mode principal de communication autour de la science. Au détriment à la fois de l’analyse des travaux de recherche, et de la capacité des citoyens et de leurs représentants à évaluer les travaux et à en tirer les conséquences politiques.
En réalité, l’expérience est plus modeste... mais aussi plus inquiétante. Il s’est agi de synthétiser un chromosome dont le code a été écrit par ordinateur, de le construire en s’aidant de levures, de l’introduire ensuite dans une cellule, et de le retrouver après la division de cette cellule. Pour vérifier cela, des « filigranes » ont été introduits par l’équipe de Craig Venter dans le code du chromosome.
La synthèse d’ADN a été réalisée pour la première fois au début des années 1970 par Har Gobin Khorana, et comportait 207 paires de bases. En 2002, Eckard Wimmer indiquait avoir recréé un virus de la polio. On a, depuis, recréé l’ADN du virus de la grippe espagnole de 1918, et amélioré les techniques mises en œuvre. On peut dorénavant commander des brins d’ADN en envoyant leur séquence par courrier électronique. Il existe près de quarante entreprises de synthèse génomique, dont deux en France. Ce qu’apporte l’expérience du J. Craig Venter Institute tient dans l’amélioration des techniques de construction du chomosome et dans la capacité de le retrouver, après la division cellulaire, signe qu’il a pris le contrôle de la cellule. Pour David Baltimore, éminent généticien du Caltech, cité par The New York Times, il n’y a pas création de la vie, mais une recopie. Un travail technique dont il reconnaît par ailleurs la qualité, mais qui lui semble loin des superlatifs employés par l’équipe de Craig Venter pour « vendre » son expérience.
Car vendre est bien l’objectif de ces recherches en biologie synthétique. Venter a déposé en mai 2007 un brevet aux Etats-Unis (sous le numéro d’application 20070122826) et un brevet international (PTO WO2007047148). Il souhaite ainsi devenir propriétaire des techniques de construction d’un ensemble « minimal » d’ADN susceptible de se répliquer à l’image du vivant. Il revendique de même la propriété des processus de production d’hydrogène et d’éthanol qui pourraient être obtenus par des techniques similaires. Nous sommes loin de la recherche visant à « comprendre la nature » et à expliquer les phénomènes biologiques... mais bien dans la course aux applications, susceptibles de faire frétiller les investisseurs du capital-risque.
A terme, il s’agit de contrôler les retombées économiques ou financières de la bulle spéculative du marché du carbone. Dans cette compétition débridée, l’équipe de Craig Venter est associée à Synthetic Genomics Inc., une entreprise elle aussi dirigée par Craig Venter, appuyée par le gouvernement des Etats-Unis, dont le secrétaire d’Etat à l’énergie, le prix Nobel de physique Steven Chu, est un fervent partisan de la biologie synthétique. Une entreprise en partenariat avec les pétroliers Exxon Mobil et BP, dont on peut admirer actuellement dans le Golfe du Mexique la capacité à mettre en œuvre des techniques sans risque !
Une ambition prométhéenne
La production d’hydrocarbure par des bactéries pilotées par un ADN artificiel n’est certes pas pour demain. Mais le principe même de telles études, organisées par des objectifs financiers et agissant comme divertissement médiatique aux problèmes actuels de la planète et de la société, peut être mis en cause.
Car les craintes sont importantes : développement d’armements biologiques ; conséquences pour les employés des laboratoires en contact avec des virus extrêmement pathogènes ; et risques d’un relâchement accidentel dans l’environnement d’organismes de synthèse [2].
La course industrielle, mais aussi les guerres d’ego des chercheurs impliqués, plaident pour une réflexion démocratique globale sur l’opportunité et les conditions d’une telle recherche. Il n’est pas possible d’abandonner la décision aux seuls chercheurs du domaine considéré. Ni de les laisser vendre, survendre et faire briller à coup de strass médiatique des promesses dont on peut largement mettre en cause la crédibilité.
Dans cette réflexion, n’oublions jamais les volontés prométhéennes d’une partie de la communauté scientifique, particulièrement au sein des mavericks (fous) de la génomique à l’origine de la publication de ce jour. Aux journalistes qui lui demandaient s’il n’avait pas le sentiment de jouer à Dieu, Hamilton O. Smith, prix Nobel, actionnaire de Synthetic Genomic Inc., et l’un des signataires de l’article de Science, répond par sa blague favorite : « Nous ne jouons pas. » Le code génétique utilisé pour l’expérience publiée aujourd’hui comporte – ce qu’on nous demande évidemment de prendre au second degré – des marques permettant de tracer le chromosome, et, parmi elles, cette citation du philosophe Felix Adler, tirée du livre American Prometheus, biographie de l’inventeur de la bombe atomique Oppenheimer : « Ne regardez pas les choses comme elles sont, mais comme elles pourraient être. »
Car au fond, c’est bien une logique prométhéenne qui se répand dans la recherche aujourd’hui : une volonté de « réparer la machine-terre », depuis sa structure globale par le « géo-engineering » jusqu’à la nanomatière, en passant évidemment par la « maîtrise » du vivant [3]. La nature n’est plus le modèle unique et singulier que la science doit interpréter, mais un simple objet que les ingénieurs doivent améliorer.... et si possible au nom de la « liberté du chercheur », c’est-à-dire sans que les citoyens puissent s’emparer ni des décisions d’orientation de la recherche, ni de l’évaluation des conséquences tant sur l’environnement naturel que sur les fondements sociaux... ni même des conséquences philosophiques, avec cette quête extrême du pouvoir sur le vivant.
Trop souvent, les chercheurs de ces disciplines duales (qui sont grosses de risques énormes au nom de bénéfices relevant de la promesse) souhaitent régler « entre eux », et avec les entreprises spécialisées de leur secteur, les questions éthiques et de sécurité. C’est ainsi dans le droit fil de la fameuse Conférence d’Asilomar de 1975 sur les biotechnologies que se sont tenues en mai 2006 la conférence « Synthetic Biology 2.0 » à Berkeley, et plus récemment, en avril 2010, une conférence Asilomar 2 sur la géo-ingénierie. Dans tous les cas, on invite des philosophes pour parler de règles éthiques faisant croire à la « responsabilité » des acteurs... pour mieux définir en dehors du regard public, et entre « partenaires » investis dans les mêmes rapports d’argent et de pouvoir, des règles d’auto-régulation que l’on souhaite s’auto-appliquer.
C’est pour cela que de nombreuses associations de la société civile, à la suite de la très influente association ETC Group, ou en France la Fondation Sciences Citoyennes, souhaitent organiser des débats mondiaux pour éviter que ne soit ouverte la boîte de Pandore. Le Forum mondial Sciences & Démocratie, dont la seconde édition se tiendra à Dakar en février 2011, devrait aborder ces questions essentielles. Car les technologies en jeu forment une épée de Damoclès excessivement tranchante. C’est en octobre 2004 déjà qu’un éditorial de la revue scientifique Nature précisait : « Si les biologistes sont sur le point de synthétiser de nouvelles formes de vie, l’étendue des désastres qui pourraient être provoqués volontairement ou par inadvertance est potentiellement immense. »