Des abonnements
pour l'enrichissement
Revue internationale de CRIMINOLOGIE et de POLICE technique et scientifique
Présentation Sommaires Articles Rubriques Directives pour les auteurs Associations PDF Abonnement
28 septembre 2012 | Revue internationale de CRIMINOLOGIE et de POLICE technique et scientifique | 1-Non classifié(e)

Notes de police scientifique (3/2012)

Et leurs collaborateurs Simon Baechler, Alex Biedermann,Frédéric Béen, Simone Gittelson, Tacha Hicks Champod,Sylvain Ioset et Aurèle Scoundrianos

 

Epistémologie


Prediction and Explanation in Historical Natural Science
Cleland C. E.
British Journal for the Philosophy of Science; 2011; vol. 62; n° 3; pp. 1-32.
 
Mots-clés: épistémologie, méthode historique, explication, modèle de raisonnement
 
Professeure de philosophie associée au centre d’astrobiologie de l’Université de Boulder, Colorado, Carol Cleland aborde la question de la méthode scientifique dans ce qu’elle appelle les sciences historiques. Elle s’attaque, en particulier, à l’apparente supériorité de la recherche expérimentale par rapport à la science historique en montrant les différences méthodologiques. Entre autre chose, elle montre l’essence d’une caractéristique essentielle de la nature: l’asymétrie du temps en ce qui concerne la cause. La cause d’un résultat observé se trouve dans un passé que l’on ne peut revivre. Les préoccupations de la philosophe qui touchent à l’origine de la vie sur terre, la théorie du big bang, la dérive des continents font appel à une méthode qui est essentiellement celle de la forensique dans la recherche d’indices probants. Elle fait d’ailleurs plusieurs fois référence à l’arme encore fumante comme indice probant de son utilisation (the smoking gun).
Dans ce dernier article, elle discute l’explication du fait historique comme étant la recherche de la cause commune et des hypothèses les plus vraisemblables avant de rechercher l’indice qui permettra de discriminer entre ces causes (précisément l’arme fumante). Elle oppose l’explication à la prédiction, forme déductive peu adéquate dans le modèle de raisonnement historique. Cet article apporte un éclairage épistémologique et méthodologique pertinent à la recherche en science forensique et en criminologie. Rafraîchissant, il nous éloigne de la vision expérimentale de Popper, inadaptée à une approche historique ou forensique de la détermination d’une cause. Lecture essentielle recommandée.
(P. Margot)
 
 
Global Perspectives in Criminalistics
Stauffer E.
Academy News; 2011; vol. 41; pp. 34-35.
 
Mots-clés: fondamentaux, paradigmes, trace, technique, recherche
 
Deux principaux courants de recherche sont souvent retrouvés en science forensique: un premier axé sur la trace et un second axé sur la technique utilisée pour analyser cette dernière. Une large majorité des recherches publiées concerne les techniques, alors qu’une fraction seulement se base sur la trace, tendant à indiquer que la recherche semble plus intéressée aux développements techniques qu’à la compréhension fondamentale de la science forensique. Bien que la technique soit évidemment nécessaire et importante pour moderniser la science forensique, focaliser la recherche autour des aspects techniques plutôt que de la trace est qualifié par l’auteur comme extrêmement dangereux. Les avancées techniques permettent d’atteindre un tel niveau de sensibilité que la signification de la détection de traces aussi infimes est d’autant plus difficile d’accès et nécessite d’autant plus de bases fondamentales, laissées pour compte par la recherche. Une pratique axée sur la technique consiste à vouloir maîtriser un outil et l’appliquer à tout problème présenté au laboratoire alors que la bonne approche, selon l’auteur, consiste à étudier le problème et ensuite à se demander quel est l’outil le plus adapté pour y trouver solution. L’auteur propose de renforcer la recherche fondamentale et de maintenir l’effort de mise à jour de ces fondements en fonction des nouveaux développements techniques.
A l’heure où les questions sur la scientificité de la science forensique passent par les techniques et technologies, la connaissance de leur taux d’erreur ou encore leur accréditation, ce commentaire s’inscrit dans un courant alternatif ayant un message récurrent d’appel à la recherche fondamentale et au retour à la trace. L’intérêt de ce commentaire réside non-seulement dans son message, au demeurant pas totalement inédit, mais également dans sa forme. L’originalité du propos datant déjà des desiderata émis par Kirk en 1963, ce message a été réitéré périodiquement et revient aujourd’hui sur le devant de la scène. Plusieurs publications récentes, appelant à consolider les fondements de la science forensique par la recherche fondamentale, adoptent un style bien plus véhément et direct. Un décalage à partir de la proposition mesurée de perspectives de recherche jusqu’à la revendication d’opinion peut être perçu au travers de ce changement de style. S’agirait-il d’une réaction aux autres solutions récemment proposées pour renforcer la science forensique, tel que le rapport de la National Academy of Science par exemple?
(A. Scoundrianos)
 
 

Interprétation


Subjectivity and bias in forensic DNA mixture interpretation
Dror I. E. et Hampikian G.
Science & Justice; 2011; vol. 51; n° 4; pp. 204-208.
 
Mots-clés: trace, ADN, interprétation, contexte, biais
 
Rappelant les considérations du rapport de la National Academy of Science de 2009 (NAS, 2009), dont Itiel Dror est l’un des artisans, les auteurs constatent que des biais peuvent s’immiscer dans l’interprétation de la preuve matérielle. Ce constat vaut même pour la trace ADN malgré l’aura d’infaillibilité qui entoure ce type de trace. Afin de tester ceci, les auteurs ont utilisé un profil de mélange (trace) ainsi que le profil ADN d’un suspect (comparaison) provenant d’un cas réel. Ils ont comparé les conclusions de deux experts ayant eu connaissance du contexte avec celles de 17 experts n’ayant pas eu ces informations. Les premiers étaient mandatés dans le cadre du cas réel alors que les derniers ont été choisis par les auteurs pour les besoins de l’étude en question. Bien entendu, les conclusions diffèrent entre les experts, ce qui vient contredire les conclusions du rapport NAS qui érige l’ADN en exemple à suivre. Par contre, cette étude se base sur un cas réel qui entre dans la lignée des cas d’erreurs judiciaires, ponctuels et spectaculaires, qu’utilise habituellement l’auteur principal pour accentuer l’importance de son propos.
Ainsi les auteurs semblent (re)découvrir que l’ADN n’est pas «la preuve parfaite», que les traces analysées sont souvent dégradées, contiennent parfois de très petites quantités de matière et éventuellement proviennent de plusieurs personnes. Les profils établis sont donc souvent de mauvaise qualité et la comparaison avec un profil de personne n’est pas triviale. En bref, elle ressemble à toute trace, élément décrit par Margot comme le plus improbable, fragmenté, imparfait et incontrôlé d’un événement. Les auteurs attirent une fois de plus l’attention sur des effets de contexte incontestables, difficiles à admettre par les experts et persistants dans la plupart de nos raisonnements quotidiens. Néanmoins d’autres études tendent à relativiser l’impact négatif d’un certain contexte dans l’interprétation de l’exploitation des traces.
 
L’idée exposée par les auteurs est percutante et facile à comprendre, donc propice à la médiatisation (comme en témoigne un article paru dans The Economist en 2012). Les auteurs promeuvent ainsi leur recherche et proposent une série de procédures normatives dans lesquelles le forensicien est considéré comme un instrument d’analyse à piloter et contrôler. Ces procédures s’ajoutent aux autres normes imposées aux laboratoires forensiques s’empilant dans les démarches d’accréditation, induisant augmentation des coûts, ralentissement des procédures, complexification des relations avec les partenaires et réduction des services offerts. Elles sont utiles, en cas de problème, pour reporter la responsabilité sur un «coupable» (souvent un individu), dans un domaine où il restera toujours des erreurs par la nature même de l’activité. Par leurs expériences, les auteurs recommandent que les forensiciens soient tenus à l’écart des informations d’enquête, prétendant que leur connaissance serait un problème plutôt qu’une plus-value. Cette position illustre une confusion qui existe entre les différents rôles de la science forensique. La question posée dans le cas de figure décrit par l’article – évaluer si le suspect est à la source de la trace – s’inscrit dans un contexte de jugement. Or réduire la science forensique à sa contribution aux preuves présentées au tribunal équivaut à occulter le potentiel de la trace matérielle comme vecteur d’information en amont du tribunal, en cours d’enquête ou au service du renseignement. Contrairement à ce que préconisent les auteurs, un autre courant de pensée estime que la trace n’existe que parce qu’une activité l’a causée et que son étude ne peut s’abstraire des circonstances du cas. L’influence du contexte se fait de toute manière ressentir au moment de recomposer les différentes informations récoltées au cours d’une enquête. Si le forensicien ne participe pas à cette recomposition, c’est l’enquêteur seul qui en a la tâche. Ce travail de reconstruction, entravé par de multiples barrières, n’en sera alors que davantage confronté aux erreurs et aux échecs. Au contraire du paradigme soutenu par les auteurs, des modèles d’intégration des traces doivent être élaborés et soutenus afin de comprendre les mécanismes des biais de raisonnement; il s’agit de construire une vraie démarche forensique. Les auteurs rappellent encore la distinction établie par le rapport NAS entre les disciplines basées sur des résultats de laboratoire (ADN, stupéfiants, …) et les autres disciplines fondées sur les observations effectuées par des experts (écritures, traces digitales, …). Or c’est justement cette conception qui est à l’origine du malaise. La science forensique est une discipline en tant que telle, qui, comme le souligne Margot, ne devrait pas «être définie par ses spécialités, mais par sont objet, à savoir la trace matérielle» (Margot, P. «Forensic science on trial - What is the law of the land?» Australian Journal of Forensic Sciences; 2011; vol. 43; pp.89–103.). Mais la distinction relative aux moyens mis en œuvre pour analyser une trace selon sa nature a néanmoins des conséquences: par exemple le fait que la pratique intervient de manière déconnectée (dans des laboratoires distants) de l’action de sécurité ou, au contraire, intégrée à celle-ci (dans les services de police scientifique) influence l’exploitation des résultats en termes de renseignement, de prise de décision, de mesure opérationnelle ou de preuve présentée devant un tribunal.
Les auteurs mettent donc en évidence un problème d’interprétation de la preuve présentée au tribunal, en proposant que le problème vient de la connaissance du contexte que détient l’expert. Par cet article et les conceptions qu’il véhicule, ils offrent bien plus: l’opportunité de réfléchir sur les fondements et les buts de la science forensique.
 (S. Ioset)
 
 

Réseaux criminels


Locating the source of diffusion in large-scale networks
Pinto P. C., Thiran P. et Vetterli M.
Physical Review Letters; 2012; vol. 109; n° 6; art. n° 068702.
 
Mots-clés: réseaux, nœuds, analyse, source, inférence, SNA, organisations criminelles
 
La localisation de la source d’une information (par exemple d’une rumeur, de spams ou de communications criminelles) ou d’une infection (par exemple le virus H1N1) au sein d’un réseau humain constitue une tâche extrêmement complexe car le nombre de nœuds composant le réseau est élevé et qu’une grande partie d’entre eux reste inconnue. Face à cette difficulté, les auteurs proposent un nouveau modèle qui permet d’inférer la source d’une information au sein d’un réseau avec une confiance élevée alors même que l’on ne dispose que d’observations sur une faible proportion des nœuds composant le réseau.
En déterminant de quel nœud voisin et à quel moment l’information est parvenue à chacun des rares nœuds pour lesquels des observations sont disponibles, le modèle proposé permet d’évaluer parmi tous les nœuds du réseau quelle est la source la plus probable. L’avantage du modèle proposé réside dans le fait que la complexité de cette évaluation n’augmente pas exponentiellement avec la croissance du nombre de nœuds du réseau. Il est dès lors possible de réaliser des calculs sur des réseaux de grande envergure. Pour être valide, le modèle nécessite toutefois que la structure globale du réseau soit connue et que les rares nœuds dont l’état est connu soient diffus, c’est-à-dire qu’ils ne soient pas concentrés sur une portion réduite du réseau. Le modèle présuppose aussi que l’information circule entre la source et chacun des nœuds selon la plus courte distance.
Le modèle proposé est en premier lieu testé sur des réseaux synthétiques et se montre très performant puisque les auteurs obtiennent une fiabilité de localisation de la source de 90 % lorsqu’ils ne disposent d’informations que sur 4 % des nœuds du réseau. Le modèle est ensuite testé sur un cas réel bien documenté d’épidémie de choléra en Afrique du Sud où l’observation au hasard de seulement 20 % des communautés infectées (nœuds) permet une bonne approximation de la communauté dans laquelle l’infection est apparue. Afin d’améliorer la performance du modèle dans la détermination de la source, les auteurs y intègrent également les cascades d’informations, c’est-à-dire lorsque la source ne génère non pas une seule mais plusieurs informations à différents moments dans le temps qui diffusent de façon indépendante dans le réseau.
Ce nouveau modèle nous paraît présenter un intérêt évident pour tous les praticiens et chercheurs concernés par l’application de l’analyse des réseaux sociaux à la lutte contre la criminalité organisée et le terrorisme. En effet, sa grande force est de permettre une détermination performante de la source des informations transmises au sein d’un réseau d’envergure alors même que l’on ne dispose que de peu d’observations sur les nœuds du réseau, ce qui correspond tout à fait à la situation rencontrée en matière de lutte contre les organisations criminelles. La limite que nous voyons dans ce modèle repose dans ses conditions d’application évoquées plus haut. Celles-ci ne sont pas nécessairement réunies dans le contexte de la lutte contre les réseaux criminels dont la structure globale reste la plupart du temps méconnue et incertaine, dont on connaît mieux les acteurs proches les uns des autres que ceux qui sont distants et dont les voies de communication ne sont pas toujours les plus directes puisqu’elles répondent à d’autres impératifs que la seule efficacité. Face à ces questionnements, il est intéressant de relever que Pinto et ses collègues ont appliqué leur modèle aux échanges de messages au sein du réseau terroriste impliqué dans les attentats du 11 septembre 2001. Le modèle a mis en évidence les noms de trois personnes parmi lesquelles se trouvait l’individu reconnu par l’enquête officielle comme ayant été le cerveau des attentats. Cette application n’est malheureusement pas discutée dans l’article scientifique mais a été évoquée par les auteurs lors d’entretiens dans certains médias écrits.
Nous recommandons également la lecture de l’article car il soulève, au sens investigatif, les problématiques de l’inférence de la source et de la gestion de l’incertitude qui y est associée dans le contexte des réseaux, ce qui constitue un angle peu commun dans la littérature forensique.
(S. Baechler)
 
 

Stupéfiants


 
Comparing illicit drug use in 19 European cities through sewage analysis
Thomas K. V., Bijlsma L., Castiglioni S., Covaci A., Emke E., Grabic R., Hernández F., Karolak S., Kasprzyk-Hordern B., Lindberg R. H., Lopez de Alda M., Meierjohann A., Ort C., Pico Y., Quintana J. B., Reid M., Rieckermann J., Terzic S., van Nuijs A. L. N. et de Voogt P.
Science of the Total Environment; 2012; vol. 432; pp. 432-439.
 
Mots-clés: stupéfiants, consommation, Europe, villes, eaux usées, tendance
 
Depuis le début des années 2000, la possibilité de suivre la consommation de stupéfiants au sein d’une communauté par l’analyse de ces derniers et de leurs métabolites dans les eaux usées a attiré l’attention de nombreux chercheurs dans le monde. L’intérêt de cette approche réside dans le fait qu’elle fournit des mesures objectives et (presque) en temps réel sur les quantités de stupéfiants qui sont consommées par une population. Dès lors, de nombreuses études ont été menées dans différentes villes d’Europe, d’Amérique du Nord et d’Australie.
L’article susmentionné présente le premier exemple de méthodologie commune appliquée simultanément dans 19 villes, permettant de dresser une carte comparative de la consommation à l’échelle européenne. Les auteurs ont récolté et analysé des échantillons d’eaux usées pour en mesurer les concentration de plusieurs produits stupéfiants: la cocaïne et son métabolite principal, l’ecstasy, l’amphétamine, la méthamphétamine ainsi que le principal métabolite du THC (principe actif du cannabis).
Les chercheurs ont ainsi pu mettre en évidence que la consommation de cocaïne est plus marquée dans les villes d’Europe occidentale (Espagne, Italie, Grande Bretagne, Pays Bas et Belgique) par rapport à celles de Europe du Nord et de l’Est. Au sein d’un même pays, la consommation est plus prononcée dans les villes plus urbanisées. A partir de ces données, les auteurs ont estimé la consommation journalière européenne à 355 kg de cocaïne pure. Mais ces données doivent être interprétées avec prudence. Premièrement, cette estimation est extrapolée à partir d’un échantillon représentant seulement 2 % de la population globale. Deuxièmement, cet échantillon est constitué uniquement par une population urbaine, au sein de laquelle la consommation de stupéfiants est très probablement plus prononcée que dans des communautés plus rurales. Enfin, des doutes subsistent quant à la validité des méthodes utilisées pour estimer le nombre d’habitants d’une région urbaine. Les données des recensement ou les capacité des stations d’épuration sont parfois utilisées, mais elles ne prennent pas en compte les variations journalières et/ou hebdomadaires dues aux flux de personnes. D’autres paramètres, directement mesurés dans les eaux sont aussi utilisés, mais ceux-ci sont influencés par des sources non-anthropogéniques. Les plus hautes concentrations d’ecstasy (MDMA) ont pu être mises en évidence dans les Pays Bas, en Grande Bretagne, en Belgique et en Espagne. Au contraire, de très faibles concentrations ont été observées dans les pays nordiques et la République Tchèque. La comparaison entre les résultats obtenus dans les différentes villes, a démontré que la consommation de méthamphétamine est particulièrement marquée en Finlande, Norvège et République Tchèque, alors qu’elle est très peu répandue dans les autres pays. Tous ces résultats sont en accord avec les données sur la prévalence de consommation récoltées par l’Observatoire Européen des Drogues et des Toxicomanies (EMCDDA). Quant à l’amphétamine, les résultats indiquent qu’il s’agit du produit amphétaminique dont la consommation est la plus répandue en Europe, avec en tête la Belgique et les Pays Bas. Sur ce point, les résultats présentés dans l’article sont en désaccord avec les données de prévalence existantes. Les chercheurs formulent l’hypothèse que ces pays seraient des grands producteurs d’amphétamine. Cependant, la pharmacocinétique des produits amphétaminiques pourrait constituer une autre voie d’explication. En effet, lors de la consommation d’ecstasy (qui est élevée dans ces pays), une partie de la MDMA est transformée en amphétamine dans l’organisme, ce qui accroît la concentration de cette dernière dans les eaux usées. La plus haute consommation de cannabis a été mesurée pour les Pays Bas, ce qui n’est pas étonnant au vu de la politique libérale de ce pays en la matière.
Cette étude a permis de confirmer les observations faites précédemment quant aux tendances de consommation des différents types de stupéfiants. Une fois de plus, elle a mis en évidence le fait que la consommation de cocaïne et d’ecstasy est plus marquée pendant les weekends, ce qui confirmerait leur usage lors d’activités festives. De leurs côtés, les consommations d’amphétamine, de méthamphétamine et de cannabis restent constantes durant la semaine.
 (F. Béen)
 
 

Traces ADN


DIP-STR: A new marker for resolving unbalanced DNA mixtures
Hall D. et Castella V.
Forensic Science International: Genetics Supplement Series; 2011; vol. 3; n° pp. e1-e2.
 
Mots-clés: ADN, mélanges, marqueurs, polymorphisme de suppression/insertion
 
La pratique actuelle de l’analyse de traces ADN en science forensique porte sur une série de séquences répétitives, désignées sous l’appellation Short Tandem Repeats (STR). L’analyse de la constitution génétique d’un individu pour plusieurs de ces marqueurs – c’est-à-dire le nombre d’unité de répétitions pour chaque marqueur – aboutit à ce que l’on appelle le profil ADN de cette personne. Les développements techniques actuels permettent d’obtenir des profils ADN à partir de quelques cellules déjà. Du fait de cette capacité analytique remarquable, les spécialistes forensiques se sont vus confronter, au fil des dernière années, à des traces de teneurs en ADN de plus en plus faibles, ainsi que des traces contenant du matériel biologique de plus d’une personne. Pour ce dernier type de traces, le profil ADN d’un contributeur mineur ne peut cependant pas être mis en évidence si le rapport entre la quantité de son ADN et celle du contributeur principal est inférieure 1:10. Cela est dû au fait que, lors des analyses, l’ADN minoritaire n’arrive pas à accrocher suffisamment de réactif pour spécifier les zones de l’ADN à amplifier. Ceci constitue un inconvénient majeur surtout dans des situations où l’ADN minoritaire présente un intérêt particulier, comme par exemple suite à des agressions (sexuelle) impliquant des traces prélevées directement sur une victime.
Afin de surmonter ces difficultés, les auteurs proposent une extension de l’analyse des séquences répétitives classiques à un polymorphisme de type ‘Suppression/Insertion’ ou en anglais ‘Deletion/Insertion Polymorphism’ (DIP). Ce dernier est lié à un STR pour former un marqueur génétique combiné, nommé DIP-STR. Le DIP peut se présenter sous deux formes, à savoir l’allèle L (pour ‘insertion’) et l’allèle S (pour ‘deletion’). En utilisant des sondes pouvant s’hybrider exclusivement à l’une ou l’autre de ces deux variantes, il devient possible d’amplifier sélectivement un ADN présentant le polymorphisme d’intérêt, même si cet ADN se trouve en quantité minoritaire. L’amplification de l’ADN minoritaire devient possible car ce dernier ne se trouve plus en compétition avec l’ADN majoritaire lors de la hybridation des sondes. Le succès de cette méthode dépend dès lors de la manière dont les génotypes des ADN majoritaire et minoritaire se comparent entre eux au niveau du DIP: un allèle de l’ADN minoritaire pourra seulement être amplifié si l’ADN majoritaire ne partage pas le même DIP.
La proposition d’analyse de marqueurs DIP-STR est novatrice: elle ouvre des perspectives d’exploitation de profils ADN que les méthodes traditionnelles ne permettent pas de détecter. En vue d’une utilisation opérationnelle de cette technique, la valeur probante du résultat qu’elle fournit et le canevas interprétatif pour l’évaluer doivent encore être approfondis. Pour ce faire, il s’agira de tenir compte des particularités biologiques de ce nouveau type de marqueur et des données sur l’occurrence de ces marqueurs dans des populations cibles. Ces aspects constituent encore des voies de recherche à poursuivre qui permettront de cerner le vrai potentiel de cette méthode originale.
(A. Biedermann et T. Hicks Champod)
 
 
An evaluation of potential allelic association between STRs vWA and D12S391: Implications in criminal casework and applications to short pedigrees
Gill P., Phillips C., McGovern C., Bright J.-A. et Buckleton J.
Forensic Science International: Genetics; 2012; vol. 6; n° 4; pp. 477 - 486.
 
Mots-clés: génétique forensique, locus, indépendance, recombinaison, interprétation
Deux loci cibles du kit d’amplification NGMTM, les loci vWA et D12S391, se trouvent sur le même chromosome. Qu’implique cette proximité physique pour l’évaluation de rapports de vraisemblance en génétique forensique? Cet article étudie précisément l’impact du lien physique entre ces deux loci sur deux plans: la probabilité de coïncidence fortuite de génotypes de personnes non-apparentées, et le rapport de vraisemblance dans des cas de paternité contestée.
Pour la probabilité de coïncidence fortuite, les résultats indiquent que l’utilisation d’un facteur correctif tenant compte des effets de sous-populations est adéquate et suffisante pour ne pas surestimer un rapport de vraisemblance. Cette étude se différencie des études précédentes par la mise en œuvre de simulations en génétique de populations à la place d’une investigation des données de populations existantes. Cette méthodologie a permis aux auteurs de contourner des limitations des études antérieures, comme la taille relativement petite des populations étudiées, et de focaliser leur recherche sur des scénarios favorisant un déséquilibre de liaison. Ainsi, les résultats obtenus sont beaucoup plus informatifs et robustes.
Pour le cas de paternité contestée, il existe des situations où l’évaluation de la valeur indiciaire nécessite l’introduction de la probabilité de recombinaison entre les loci. Les auteurs présentent une telle évaluation pour quelques cas typiques. Ces exemples montrent qu’une approche ignorant les résultats pour un des deux loci sur un même chromosome (une approche proposée précédemment dans la littérature) peut entraîner un biais vers la mauvaise proposition dans certaines de ces situations. Ce constat souligne l’importance de tenir compte de toute l’information à disposition lorsqu’on évalue la valeur indiciaire.
Cet article aborde un problème découlant de l’évolution de la génétique forensique vers un nombre de marqueurs de plus en plus important. D’une part, l’augmentation du nombre de marqueurs vise à élever le pouvoir discriminatoire des analyses génétiques, d’autre part, cette augmentation tend irrémédiablement vers une situation où il n’est plus possible de soutenir une présomption d’indépendance des marqueurs utilisés. Par conséquent, des études approfondies, comme celle-ci, sont devenues nécessaires pour comprendre les implications du choix des loci cibles sur les valeurs indiciaires évaluées en génétique forensique.
(S. Gittelson)
 
 
* Professeur et Directeur, Ecole des Sciences Criminelles, Université de Lausanne