The Poverty Lab

30 août 2010

« It’ can’t only be the data, » Duflo said, showing a rare willingness to generalize. « Even to understand what data means, and what data I need, I need to form an intuition about things. And that process is as ad hoc and impressionistic as anybody’s. »

It can’t only be the data, but there must be the data. « There is a lot of nosie in the world, » Duflo said. « And there is a lot of idiosyncrasy. But there are also regularities and phenomena. And what the data is going to be able to do – if there’s enough of it – is uncover, in the mess and the noise of the world, some lines of music that actually have harmony. It’s there, somewhere. »

article from Ian Parker, The New Yorker, May 17, 2010

L’article est intéressant, et donne fortement envie de regarder les confs d’Esther Duflo au Collège de France.

Mais ça donne des idées tout ça. En 2007, 10700 doctorants ont soutenu leur thèse (source). En parallèle, la France compte 54875 écoles (source). Dans le même esprit que le programme Science Académie de l’association Paris Montagne, j’aimerai connaître l’impact sur les enfants du primaire, par exemple CM1, de la visite régulière de doctorants, pour discuter avec eux, organiser des activités, des expériences, des jeux collectifs, voir des films, lire des livres, etc, tout ça autour de leur sujet de thèse, de leur domaine, de la science en général. J’aimerai aussi connaître l’impact sur les doctorants participants à ce projet.

Idée: mettre en place un « randomization trial » afin d’estimer l’impact d’un tel projet.

Feuille de route: trouver du temps, trouver des organisateurs, affiner la question scientifique et contacter Esther Duflo; puis trouver une (des) région(s) partantes pour l’expérience, trouver des doctorants volontaires, trouver des profs partants, …; puis mener à bien l’expérience sur plusieurs mois (voire un an); puis analyser les résultats; puis partager les conclusions; puis …

Publicités

Déterminisme, science et justice

23 août 2010

Quelques idées de-ci de-là mélangeant lectures diverses et variées pendant l’été.

Extrait du livre The extended phenotype de Richard Dawkins:

[…] of the two effects that genes have on the world – manufacturing copies of themselves, and influencing phenotypes – the first is inflexible apart from the rare possibility of mutation; the second way may be exceedingly flexible. I think a confusion between evolution and development is, then, partly responsible for the myth of genetic determinism.

[…] I made extensive use of the analogy of computer chess in order to explain the point that genes do not control behaviour directly in the sense of interfering in its performance. They only control behaviour in the sense of programming the machine in advance of performance. It was this association with the word robot that I wanted to invoke, not the association with mindless inflexibility.

[…] Philosophers may debate the ultimate determinacy of computers programmed to behave in artificially intelligent ways, but if we are going to get into that level of philosophy many would apply the same arguments to human intelligence (Turing 1950). What is a brain, they would ask, but a computer, and what is education but a form of programming? It is very hard to give a non-supernatural account of the human brain and human emotions, feelings and apparent free will, without regarding the brain as, in some sense, the equivalent of a programmed, cybernetic machine. The astronomer Sir Fred Hoyle (1964) expresses very vividly what, it seems to me, any evolutionist must think about nervous systems:

Looking back [at evolution] I am overwhelmingly impressed by the way in which chemistry has gradually given way to electronics. It is not unreasonable to describe the first living creatures as entirely chemical in character. Although electrochemical processes are important in plants, organized electronics, in the sense of data processing, does not enter or operate in the plant world. But primitive electronics begins to assume importance as soon as we have a creature that moves around […] The first electronic system possessed by primitive animals were essentially guidance systems, analogous to sonar or radar. As we pass to more developed animals we find electronic systems being used not merely for guidance but for directing the animal toward food […]

The situation is analogous to a guided missile, the job of which is to intercept and destroy another missile. Just as in our modern world attach and defense become more and more subtle in their methods, so it was the case with animals. And with increasingly subtlety, better and better systems of electronics become necessary. What happened in nature has a close parallel with the development of electronics in modern military applications […] I find it a sobering thought that but for the tooth-and-claw existence of the jungle we should not possess our intellectual capabilities, we should not be able to appreciate a symphony of Beethoven […] Viewed in this light, the question that is sometimes asked – can computer think? – is somewhat ironic. Here of course I mean the computers that we ourselves make out of inorganic materials. What on earth do those who ask such a question think they themselves are? Simply computers, but vastly more complicated ones than anything we have yet learned to make. Remember that our man-made computer industry is a mere two or three decades old, whereas we ourselves are the products of an evolution that has operated over hundred of millions of years.

Others may disagree with this conclusion, although I suspect that the only alternatives to it are religious ones. Whatever the outcome of that debate, to return to genes and the main point of this chapter, the issue of determinism versus free will is just not affected one way or the other by whether or not you happen to be considering genes as causal agents rather than environmental determinisms.

[…] Genes do indeed blend, as far as their effects on developing phenotypes are concerned. But, as I have already emphasized sufficiently, they do not blend as they replicate and recombine down the generations.

[…] Of course genes are not directly visible to selection. Obviously they are selected by virtue of their phenotypic effects in concert with hundred of other genes. But it is the thesis of this book that we should not be trapped into assuming that those phenotypic effects are best regarded as being neatly wrapped up in discrete bodies (or other discrete vehicles). The doctrine of the extended phenotype is that the phenotypic effect of a gene (genetic replicator) is best seen as an effect upon the world at large, and only incidentally upon the individual organism – or any other vehicle – in which it happens to sit.

* * *

Dans son livre The extended phenotype datant de 1982, Dawkins a bien fait de préciser sa pensée concernant le déterminisme génétique, initialement évoquée dans The selfish gene datant de 1976. Utiliser la métaphore de l’ordinateur et de la programmation comme il l’entend ci-dessus, est évocatrice et donne une bonne idée de la façon dont on peut (tenter de) comprendre les relations de causalité entre les gènes, l’organisme pris dans sa globalité (leur véhicule) et les interactions entre cet organisme et le monde extérieur. Pour autant, il est nécessaire de préciser qu’utiliser le terme « programmed machine » pourrait être quelque peu abusif étant donné qu’on programme une machine afin d’effectuer un calcul (computation) et que la théorie de la calculabilité donne un sens bien précis à ce qu’est un calcul et à ce que l’on peut calculer. A ce sujet, les conférences de Gérard Berry au Collège de France sont très instructives.

Cette manière dont on a actuellement d’expliquer les organismes comme étant les véhicules des gènes a des implications très importantes sur la façon dont on a de se percevoir en tant qu’être humain et donc sur la façon dont on désire organiser la société, notamment parce qu’elle touche à la question du déterminisme. Est-on déterminé par ses gènes ? Peut-on dire que l’on « veut » quelque chose ? Doit-on être tenu pour responsable de ses actes ? A la première question, Dawkins répond oui, mais en précisant que le terme « déterminé » doit être compris dans son sens faible étant donné l’extrême flexibilité résultant de l’action de tous les gènes de l’organisme. Ainsi pour lui, le fait que l’on soit déterminé par ses gènes n’affecte en aucune façon la place que l’on peut accorder au « free will », et il s’arrête là pour en revenir à son idée du phénotype étendu.

Depuis l’Antiquité au moins, les hommes se posent la question de savoir si le « free will » existe bel et bien, et le débat continue. Par exemple, en janvier 2010, les comptes rendus de l’académie des sciences des États-Unis ont été le théâtre d’une correspondance animée portant sur la question du « free will ». Tout a commencé avec l’article d’Anthony Cashmore (biologiste à l’université de Pennsylvanie) dont voici le résumé:

It is widely believed, at least in scientific circles, that living systems, including mankind, obey the natural physical laws. However, it is also commonly accepted that man has the capacity to make “free” conscious decisions that do not simply reflect the chemical makeup of the individual at the time of decision—this chemical makeup reflecting both the genetic and environmental history and a degree of stochasticism. Whereas philosophers have discussed for centuries the apparent lack of a causal component for free will, many biologists still seem to be remarkably at ease with this notion of free will; and furthermore, our judicial system is based on such a belief. It is the author’s contention that a belief in free will is nothing other than a continuing belief in vitalism—something biologists proudly believe they discarded well over 100 years ago.

Vous imaginez bien que les réactions ont été immédiates. Voici les titres des réponses:

  • Has biology disproved free will and moral responsibility? (lien)
  • Reply to Anckarsater: A belief in free will is based on faith (lien)
  • A justice system that denies free will is not based on justice (lien)
  • Reply to McEvoy: The judicial system is based on a false understanding of the biology of human behavior (lien)

Au sujet de l’article qui a tout déclenché, Konrad Hinsen nous explique dans un billet que la question du « free will » ne peut être posée en des termes scientifiques: « The scientific method is based on identifying conditions from which exact predictions can be made. The decisions of an agent that possesses free will are by definition unpredictable, and therefore any theory about a system containing such an agent would be impossible to verify. […] It also means that a hard-core scientist, who considers the scientific method as the only way to establish truth, has to deny the existence of free will, or else accept that some important aspects of our universe are forever inaccessible to scientific investigation. »

Je ne suis pas d’accord avec ce point de vue. Premièrement, dans son travail quotidien, le scientifique ne peut pas toujours faire de prédictions « exactes », cela ne l’empêche pas pour autant de travailler. Bien souvent concernant des systèmes complexes,  la science n’apporte pas de preuves définitives mais plutôt un faisceau d’indices concordants. Deuxièmement, même si l’on suppose l’existence du « free will », de nombreuses expériences de psychologie expérimentale et de biologie comportementale (ainsi que tout ce qui est compris sous le vocable « sciences cognitives ») sont menées et arrivent, me semble-t-il, à mettre à jour des régularités permettant de mieux comprendre les ressorts des comportements (choix d’un partenaire sexuel, mise en place du leadership, dynamique des rivalités, compréhension des mécanismes d’apprentissage, etc). Troisièmement, notre méconnaissance actuelle de la façon dont les gènes agissent de concert lors de la vie d’une cellule et du développement d’un organisme (le « genes do blend » de Dawkins) nous empêche de bien comprendre les relations causales entre gènes, environnement et stochasticité (les trois forces gouvernant les systèmes biologiques selon Cashmore). Mais la recherche est intense sur ce point et nous devrions y voir plus clair dans les prochaines décennies, que ce soit à travers l’analyse des réseaux de gènes ou grâce aux approches de biologie synthétique. Quatrièmement, la biologie évolutive a montré la différence existant entre expliquer et prédire (cf. Mayr 1961). Donc il est possible, et même très vraisemblable, que tout organisme vivant soit entièrement déterminé par ses gènes, son environnement et un brin de stochasticité (auxquelles je rajouterai explicitement les contraintes physiques), sans que pour autant on arrive à prédire son comportement. Formellement, l’analyse des systèmes dynamiques (chaos déterministe, attracteurs, etc), par exemple en météorologie, nous apprend que l’on ne pourra jamais prédire le temps à plus de quelques jours, une très petite augmentation de cette durée nécessitant une augmentation démesurée de la précision des mesures (impossible en pratique).

En fin de compte, la survie du « free will » réside donc peut-être dans le fait que, les systèmes biologiques étant dynamiques par nature, nous ne parviendrons jamais à en prédire exactement le comportement (c’est-à-dire, en termes statistiques, à en expliquer 100% de la variance, comme le fait remarquer H. Anckarstäter dans PNAS), mais seulement à en décrire les grands lignes.

Là o`u je suis d’accord avec K. Hinsen, mais mon argument est différent, c’est que la méthode scientifique ne peut pas prouver l’inexistence de quelque chose. Non seulement parce que les sciences naturelles, à la différence des mathématiques, ne prouvent jamais rien (cf. le problème de l’inférence, la science ne fait qu’apporter un faisceau d’indices concordants), mais aussi parce qu’en choisissant toujours l’explication la plus parcimonieuse (rasoir d’Occam), le scientifique contemporain est amené à ne jamais considérer l’existence du « free will ». Son inexistence n’est donc pas « prouvée » pour autant.

Dans un commentaire de son propre billet, K. Hinsen précise cependant: « Both sides agree that science can’t fully explain human behaviour at the moment, but disagree about the conclusions that should be drawn. Personally, I’d prefer not to draw any conclusion at all. » Je ne suis pas très au fait du fonctionnement exact des systèmes judiciaires français et américain mais, comme le note Cashmore, les systèmes judiciaires actuels conduisent à une « sur-incarcération » qui est loin d’être optimale. Par contre, pour moi, ce n’est pas tant l’attention théorique accordée à l’existence du « free will » qu’il faudrait modifier mais plutôt l’attention empririque accordée aux efforts de réinsertion (un point que Cashmore ne mentionne même pas !). Cependant, j’ai l’impression que le fait de croire au « free will » amène à  mettre l’accent sur la faute, et donc sur la punition (l’incarcération), bien plus que sur la compréhension des raisons diverses et variées (génétiques, environnementales, etc) ayant amené à contrevenir à la loi, et donc sur les efforts  de réinsertion à mettre en œuvre. Et c’est en cela qu’il serait pertinent de remettre en cause l’importante du « free will » dans notre façon de rendre la justice.

Pour résumé, les connaissances scientifiques actuelles n’ont pas besoin de faire appel au « free will » pour expliquer grand nombre de comportements. Pour autant, cette question ne pourra vraisemblablement jamais être résolue sans ambiguïté étant donné les propriétés intrinsèques des systèmes biologiques. Indépendamment de cela, le système judiciaire actuel promeut l’incarcération au détriment de la réinsertion et l’Etat finance préférentiellement la punition au détriment de la solidarité. Si cela est lié à l’importance accordée au « free will », je rejoins Cashmore dans l’idée de remettre à plat notre conception de la justice mais regrette de n’avoir pas trouvé dans son article de suggestions plus précises.

En effet, de manière générale, je ne pense pas qu’il faille aborder de tels sujets uniquement à travers des remises en cause théoriques mais toujours proposer en parallèle la mise en place d’expérimentations pratiques et innovantes. Sur ce point, une association comme le Genepi a sûrement plein d’idées.


Cas concret de frictions entre science et société

17 août 2010

Les faits

Une soixantaine de faucheurs venus de toute la France ont saccagé 70 pieds de vigne transgénique dans l’unité de Colmar de l’Institut national de recherche agronomique (Inra) dans la nuit de samedi à dimanche, « un acte gravissime pour la recherche » selon le directeur du site. (extrait d’une dépêche AFP)

Dans un autre style, voici un extrait d’une pétition de soutien aux faucheurs:

« Aujourd’hui, 15 août 2010, une vigne génétiquement modifiée résistante au court noué a été neutralisée par les Faucheurs Volontaires à l’INRA de Colmar. »

L’historique

Ce n’est pas la première fois que des vignes OGM se font arrachées à l’INRA de Colmar. L’historique de toute l’affaire est disponible ici sur le site web de l’INRA. A lire absolument si on veut comprendre quelque chose de concret (ne pas se contenter uniquement des articles de la presse grand publique !). C’est écrit par l’un des protagonistes de l’affaire (en l’occurrence l’INRA) alors certains peuvent craindre que ce ne soit pas objectif, mais lisez quand même, c’est très instructif…

La question

Que doit-on penser de tout ça ? Qui est responsable de quoi ? Qui croire ? Comment sortir de cette situation ?

La (piste de) réflexion

C’est bien compliqué… Je ne saurai discourir ici sur les bienfaits et méfaits accompagnant toute innovation technique. Par contre, je peux partager quelques informations utiles à ce débat sur la vigne OGM, informations qui se trouvent être disponibles grâce à internet, sur lesquelles je peux porter un regard critique et qui me semblent nécessaires à la compréhension du sujet. Ces informations une fois partagées et discutées nous entraîneront vers une perspective qui saura, je l’espère, susciter votre intérêt pour « aller plus loin ».

* * *

Le premier point concerne le fait que l’INRA a petit à petit intégré dans sa manière de faire la concertation avec la société civile. Exemple de cette prise de conscience, un article paru dans le journal scientifique Nature en 2007:

The public should be consulted on contentious research and development early enough for their opinions to influence the course of science and policy-making.

Pierre-Benoit Joly (directeur de recherche INRA)

Arie Rip (professeur de philosophie des sciences aux Pays-Bas)

Nature volume  450 (8 November 2007)

Afin d’avoir une bonne idée du processus de concertation, je ne saurai trop recommander la lecture du (court) rapport « Mettre les choix scientifiques et techniques en débat » écrit par des membres du laboratoire TSV (« Transformations sociales et politiques liées au vivant ») de l’INRA d’Ivry.

* * *

Le deuxième point concerne la vigne OGM elle-même. Le but des recherches de l’INRA de Colmar en mettant au point des plantes OGM est de mieux comprendre la maladie dit du « court noué ». Cette maladie est due à un virus qui est transmis de plante en plante par un ver du sol (un nématode). Pour en savoir plus, rien de mieux que de lire la description que font les chercheurs de leur travail. Là encore, allez lire ce qu’ils ont écrit, après tout ce sont eux les spécialistes et ils savent aussi écrire de telle sorte que ce soit compréhensible par à peu près tout le monde.

Dans la pétition de soutien aux faucheurs, on peut lire: « L’intérêt scientifique de cette expérimentation est également mis en doute par le fait que cette maladie est mineure et que l’on sait déjà la gérer: on arrache les pieds infectés puis on laisse reposer la terre pendant plusieurs années. » Or dans un billet de blog du site Libération j’apprends que « des travaux récents montrent que 4 ans après l’arrachage d’une vigne court-nouée, des nématodes porteurs du virus sont toujours présents dans le sol ». Alors qui croire ?

S’il y a des résultats scientifiques récents concernant la présence dans le sol du virus même après avoir arraché les vignes infectées, je devrais pouvoir les trouver. Ni une ni deux, je vais sur Google Scholar et je tape « soil grapevine virus ». En effet, je tombe sur l’article suivant intitulé « Survival of Xiphinema index in Vineyard Soil and Retention of Grapevine fanleaf virus Over Extended Time in the Absence of Host Plants ». Cet article se trouve être même en accès libre (au format pdf).

Des chercheurs de l’INRA travaillant sur le virus de la vigne en question ainsi que sur les nématodes (vers de terre porteurs du virus) ont collaboré et ont conclu dans cette étude de 2005 que: « Our findings on the long-term survival of viruliferous X. index under adverse conditions emphasize the need for new control strategies against GFLV. »

Alors, quoi faire ? Et bien si laisser les sols au repos pendant quatre ans n’est pas suffisant, on peut toujours ce dire qu’il faut attendre plus longtemps. Je veux bien croire que le secteur viticole français soit en surproduction (bien que la situation ait changé depuis 2007), mais quand on sait que 30% du vignoble français subi le « court noué », c’est un régime peut-être un peu drastique que de dire à tous ces producteurs d’attendre plusieurs années avant de recommencer à produire. En pratique, cela me paraît quelque peu difficile à réaliser.

On peut aussi penser que les conclusions des chercheurs ne sont que partiellement vraies, qu’ils n’ont pas tout bien regarder, etc. Mais c’est une accusation très forte et je n’ai pas l’impression que l’on puisse faire cela dans notre cas. La question se repose donc: quoi faire ? Et bien, peut-être qu’en introduisant une résistance génétique dans le génome des cépages on pourra améliorer un peu les choses ? Ou bien peut-être qu’en comprenant les déterminants moléculaires de la transmission du virus par le nématode, on pourra utiliser des moyens de lutte biologiques (des prédateurs des nématodes) plus adaptés, ou encore mettre au point des agents chimiques plus spécifiques ?

Mais avant de faire ça, il faut bien faire des recherches pour voir au moins si c’est possible parce que sinon, on juge avant même d’avoir des éléments de réponse. Et là, ce qui se passe, c’est que l’INRA ne peut même pas faire ces recherches. Malgré le fait qu’un processus de concertation ait été mis en place impliquant vignerons, chercheurs, conseillers scientifiques, etc. Une consultation publique a même été organisée. Le risque est de complètement braquer les chercheurs, de creuser le fossé entre eux et le reste de la société civile. D’un autre côté, le risque est de financer certaines recherches sous l’influence d’un scientisme ambiant qui n’est pas toujours de bon augure.

* * *

Le but n’est pas ici de savoir si une vigne OGM doit être commercialisée mais plutôt comment on gère l’effort de recherche en agronomie. Je ne vois pas d’autre solution que de continuer la recherche et d’augmenter l’effort de concertation, encore et toujours, d’améliorer les interactions entre les différents intervenants, car tous, chercheurs et citoyens, ont à y gagner, à condition que chacun essaie de se mettre à la place de l’autre.

Le nœud du problème concerne les relations entre science et société. Tous les chercheurs sont confrontés à cela, à plus ou moins grande échelle, et particulièrement à l’INRA, organisme de recherche finalisée, dont les trois domaines de recherche sont l’agriculture, l’environnement et la nutrition.

Au sujet des relations entre science et société, beaucoup de choses sont à construire, ce qui est d’autant plus passionnant. Alors si ce sujet vous intéresse, jetez un coup d’œil au manifeste en construction Revoluscience dont le sous-titre est « Pour une médiation scientifique émancipatrice, autocritique et responsable« . Pour le coup, c’est pile dans le sujet, c’est très actuel et vous pouvez même participer à son amélioration !


Instant présent, instant volé ?

3 août 2010

Il faut apprendre à surmonter sa gêne, je crois que c’est le plus difficile. Les jeunes ont beaucoup de mal avec ça, le fait de photographier une personne qui ignore pourquoi on la photographie. Il faut surmonter cette gêne parce qu’on est excité à l’idée de montrer ce moment, et ça on le découvre seulement une fois que c’est sur le papier, sous forme de photos ou dans un livre. Pour se débarrasser de la gêne, il faut recommencer sans cesse. A force de recommencer, recommencer, travailler, travailler, on finit par s’en débarrasser un peu.

Barbara Klemm, photographe pendant 40 ans au Frankfurter Allgemeine Zeitung

 

 

Source: documentaire La couleur du noir et blanc diffusé sur Arte.


Why modeling?

2 août 2010

People are very sceptical about modeling. They say we can’t model, because we don’t know everything yet. But this is precisely why we need to model. Rather than describing something we already understand, a simulation tool helps in approaching understanding. The model is becoming more of a reasoning instrument. It’s a way of arguing and groping towards consensus knowledge.

Walter Fontana, Bulletin of the Sante Fe Institute, 2009


Le chercheur qui rédige

2 août 2010

Un scientifique doit rédiger des rapports sur ses recherches, et ceci bien plus souvent qu’on ne le pense. Le fait même de rédiger, de mettre par écrit les idées qu’on a dans la tête, les résultats qu’on a trouvés, et les conclusions qu’on en a tirées, procure généralement un plaisir intellectuel très appréciable. Mais cet exercice a un prix: les inévitables questions de format, de mise en page et toutes les autres considérations techniques qui ne manquent pas d’apparaître. Alors comment faire pour éviter au maximum les désagréments, ne pas perdre de temps et être satisfait du résultat obtenu ?

Lorsque j’ai été confronté à ces questions, j’ai dû farfouiller à droite et à gauche pour trouver les bons outils, l’ordre optimal dans lequel effectuer chaque étape de la rédaction, les formats à utiliser, etc. Ce billet a pour but de remplir ce besoin, en premier lieu pour moi-même, afin que je n’oublie pas ce que j’ai utilisé pour rédiger mes différents manuscrits. Et ensuite, comme toujours, si ça peut servir à quelqu’un d’autre, tant mieux.

Tout d’abord, j’utilise Ubuntu, une distribution Linux, et j’essaie de n’utiliser que des outils libres et gratuits, si possible utilisables (portables) sous Windows, Mac et Linux. On entend souvent dire que ces programmes sont biens mais que ils ne valent pas Microsoft Word, Adobe Illustrator, etc. C’est faux: pour 95% des utilisateurs, les programmes libres et gratuits sont largement suffisants et simples d’utilisation. Par contre, il est vain de rechercher un seul outil pouvant tout faire, vite et bien. J’essaie donc de trouver un outil pour chaque utilisation, puis d’utiliser des formats d’échange entre tous.

* * *

Pour écrire le texte, j’utilise OpenOffice Writer qui est l’équivalent de Microsoft Office Word. Afin de partager mon travail avec des collaborateurs travaillant avec Word, je sauvegarde mon document au format « DOC ». Si ceux-ci m’envoient leurs corrections, je peux les lire dans Writer. Cela fonctionne la plupart du temps mais il vaut mieux à cette étape ne pas se préoccuper de mise en page. Je fais donc le minimum, c’est-à-dire utiliser les styles par défaut pour les titres et les paragraphes, et je n’inclus généralement pas les images dans le document.

Pour dessiner les schémas, j’utilise Inkscape qui permet de faire du dessin vectoriel, ce type de dessin étant redimensionnable sans perte de qualité. Cela signifie qu’une fois un schéma réalisé, je peux l’exporter en grande dimension si je veux le mettre sur un poster de taille A0, en moyenne dimension si je veux le mettre dans un article, ou en petite dimension si je veux le mettre dans une présentation: la source du schéma n’est donc qu’à un seul endroit.

Pour réaliser les graphiques, et bien, bizarrement, je n’ai pas beaucoup eu besoin d’en faire, mais comme dans la plupart des cas, réaliser un graphique revient à manipuler des données, j’utilise R qui, bien que présenté comme étant un environnement pour faire des calculs statistiques, permet de faire des figures de grande qualité. Cependant, utilisant souvent Python pour programmer, je me mets petit à petit à utiliser la package « matplotlib« .

Pour manipuler une image, j’utilise GIMP, que ce soit une photo, un schéma issu de Inkscape, un graphique issu de R… Avec cet outil, je peux redimensionner des images, ajouter un fond blanc, exporter en plusieurs formats, etc.

Pour faire la mise en page, j’utilise LaTeX, un système logiciel de composition de documents. Je pourrais l’utiliser aussi pour écrire le texte mais ce n’est vraiment pas pratique du tout de relire, corriger, améliorer un texte de manière collaborative avec LaTeX. Sinon, pour faire simple, avoir LaTeX sur votre ordinateur vous permet de réaliser des documents d’une qualité similaire à un imprimeur professionnel, que ce soit un roman, une suite d’équations ou une partition de musique. Bien évidemment, la mise en page se fait à la fin !

Pour gérer la bibliographie et les citations, j’utilise le format « bibtex » utilisé par LaTeX. En pratique, je rassemble au fur et à mesure de mes recherches les références qui m’intéressent sur le site web CiteULike. Une fois que j’ai défini un sous-ensemble d’articles à citer, je leur donne le même tag et les exporte au format « bibtex ». Si je veux les incorporer dans le texte en cours d’écriture avec Writer, j’utilise JabRef pour exporter mes références du format « bibtex » au format « ods » d’OpenOffice, puis dans Writer je choisis « Edit » -> « Exchange Database… » -> Browse, puis « Tools » -> « Options… » -> « OpenOffice.org Base, Databases », et je fais attention de renommer par « Bibliography ». Mais je recommande plutôt, dans le texte en cours d’écriture, de mettre les référence sous la forme « ref XX 2008 », puis de faire la mise en page des citations à la fin avec LaTeX directement.

* * *

Et maintenant, quelques astuces qui me servent souvent pour manipuler des images…

Pour dessiner un diagramme en pratique, j’ouvre Inkscape et crée un document de dimension A0 en orientation « paysage » avec une résolution de 300 ppi (pixels per inch), la qualité demandée par les éditeurs. Le fait que l’image de base soit si grande m’assure de ne pas me retrouver à vouloir exporter mon image dans des dimensions supérieurs à celles auxquelles je peux prétendre: pas de risque avec A0… Si j’ai besoin d’écrire du texte, une légende par exemple, j’utilise la police Arial. Pour entrer un symbole mathématique, Inkscape utilise les codes Unicode via la combinaison de touches Ctrl+U. Une fois le dessin réalisé, je sauvegarde le document au format « svg ».

Ensuite, avant d’inclure l’image dans mon document final, je l’ouvre avec GIMP en précisant la résolution (au moins 300 ppi) et la taille (souvent 7 pouces pour la largeur). J’ajoute un calque blanc (« Calque » -> « Nouveau calque… » -> je garde les dimensions et je coche « blanc ») et je le mets en bas de l’image (« Calque » -> « Pile » -> « Calque tout en bas »). J’aplatis l’image, si besoin je coupe des parties superflues (crop), puis je la redimensionne en gardant 300 ppi mais en modifiant la largeur (clic droit -> « Image » -> « Échelle et taille de l’image »), et enfin je la sauvegarde au format « tif » en compressant avec LZW.

Dans certains cas, j’ai besoin d’utiliser une capture d’écran tout en gardant une bonne résolution (300 ppi). Pour cela, je capture mon écran et obtiens donc une image, généralement au format « png ». Puis j’insère la capture d’écran dans une présentation d’OpenOffice Impress (équivalent du Power Point de Microsoft Office) et j’exporte le document au format « pdf ». J’ouvre ce fichier avec GIMP en précisant bien que je veux une résolution de 300 ppi. Je coupe l’image (crop) en enlevant les bordures inutiles, je redimensionne l’image en gardant bien 300 ppi mais en modifiant les dimensions si nécessaire, et enfin je sauvegarde l’image au format « tif » avec la compression LZW.

Si j’ai besoin de découper une image au format pdf, par exemple un schéma réalisé avec Beamer et TikZ, j’utilise GIMP. A l’ouverture, je choisis une résolution suffisamment élevée (par exemple 500 ppi) afin d’avoir une image suffisamment grande (au moins 6 pouces). Puis je découpe l’image comme je le souhaite. Enfin, je redimensionne en fixant une résolution de 350 ppi, et je sauve au format TIF.

* * *

Une fois que le texte a été finalisé, après maints aller-retours entre les différentes auteurs, je peux enfin me mettre à la mise en page. Pour cela, j’ajoute un plugin à OpenOffice Writer, writer2latex, qui me permet, comme son nom l’indique, d’exporter un document de Writer vers LaTeX. C’est très simple, une fois le plugin installé, j’ouvre le document en question avec Writer (sans les images), puis je clique sur « Fichier » -> « Exporter » et je choisis « LaTeX 2e » comme format. J’obtiens ainsi un fichier texte contenant mon fichier formaté en code latex, à partir duquel j’obtiens une version « pdf » via la commande « pdflatex ». C’est surtout très pratique pour les tableaux, parce qu’ils sont longs et fastidieux à créer en LaTeX, et bien plus rapide à faire avec Writer.

Par défaut, writer2latex exporte le document dans l’encodage « latin1 » qui consiste à mettre « \’a » à la place de « à », ce qui, vous en conviendrez, n’est pas très lisible. Pour régler cela, il faut changer le fichier de configuration de writer2latex. Ce fichier XML se trouve a priori dans le répertoire de configuration d’OpenOffice, ici sous Ubuntu: $HOME/.openoffice.org/3/user/. A la place de « latin1 », il faut mettre « utf8 », et tout rentre dans l’ordre. Si votre texte est en français, vous pouvez aussi automatiquement remplacer les guillemets par les commandes latex \og et \fg. D’ailleurs, beaucoup d’autres choses sont paramétrables, en voici quelques exemples bien utiles:

<option name="inputencoding" value="utf8"/>
<string-replace input="& #xAB;& #xA0;" latex-code="\og "/>
<string-replace input="& #xA0;& #xBB;" latex-code=" \fg"/>
<string-replace input="'" latex-code="'"/>

* * *

A la fin, vous avez tout votre texte formaté en latex, il reste maintenant à faire la mise en page. Pour cela, et bien, il faut apprendre LaTeX. Par exemple, il existe une syntaxe spéciale pour inclure les images au bon endroit, à la bonne taille, etc. Ah bah oui, on n’a rien sans rien… Mais heureusement beaucoup d’information est disponible sur Internet. Ce n’est pas une mine d’or mais plutôt une meule de foin, alors voici deux épingles bien utiles (et en français): un WikiBook sur LaTeX, et les tutoriels des élèves de l’ENS.

Avec tout ça, il n’y a plus de raison pour continuer à partager des documents de mauvaise qualité !


%d blogueurs aiment cette page :