3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...
Transcript of 3. Méthode conventionnelle d'analyse de l'ECG-HR pour l ...
Chapitre 3
3. Méthode conventionnelle d'analyse de l'ECG-HR pour
l'évaluation du risque de tachycardie ventriculaire et de mort
subite
Préambule: ce chapitre décrit la méthode conventionnelle de détection
des potentiels tardifs sur l'électrocardiogramme moyenné à haute-résolution.
Il précise ensuite les limites de cette méthode et présente les résultats que
nous avons obtenu sur notre population de référence pour les évaluations .
3.1. Méthodes temporelles
B. Scherlag [Shr 85] est l'un des tout premiers auteurs à avoir utilisé une forme filtrée de
l’électrocardiogramme pour mettre en évidence les PT. Cet auteur montra que le filtrage
analogique passe-haut de l'ECG présentait un inconvénient majeur: il distord la portion terminale
du QRS et cache les PT.
Avec l'apparition de l'électrocardiographie numérisée, on a eu recours à des filtres
numériques qui permettent une analyse plus fine du signal mais qui, eux aussi, sont à l'origine de
distorsions de la fin du complexe QRS. L'élimination de ces distorsions reste actuellement le
problème majeur inhérent au filtrage de l’ECG.
3.1.1. Les différentes méthodes de filtrage de l'ECG-HR
Les différentes étapes de traitement de l'ECG-HR dans le domaine temporel sont la
détection et l'alignement des complexes QRS (cf. §1.3.5) et le filtrage passe-bande de 25, 40 ou
80 à 250Hz pour isoler les PT.
Trois types de filtres digitaux ont été utilisés pour la détection des PT sur l’ECG-HR : les
filtres à réponse infinie (FRI), à réponse finie (FRF) et les filtres utilisant des fenêtres spectrales
particulières. Les avantages et les inconvénients de ces trois approches ont été décrits par Lander
en 1989 [Lan 89] :
- Les filtres FRI sont simples à mettre en oeuvre (formules de Butterworth). Ils sont
caractérisés par une bande de fréquence étroite. Leurs réponses impulsionnelles sont
théoriquement infinies. Il existe deux inconvénients à l’application de ce type de filtrage :
l'apparition d'un phénomène de "rebond" sur la partie terminale du complexe QRS et un
Chapitre 3
déphasage du signal. Il s'ensuit une augmentation apparente de la durée du complexe QRS
aboutissant à une mauvaise évaluation de la présence des PT.
- Les filtres FRF ont une très bonne précision temporelle et un faible décalage de phase.
Ils présentent néanmoins des effets de rebond au début et à la fin du complexe QRS. Ces rebonds
rendent impossible la détection du début et de la fin du complexe. Néanmoins, la morphologie du
QRS est mieux préservée qu'avec les filtres FRI.
- Les filtres à fenêtre fréquentielle opèrent dans le domaine fréquentiel par fenêtrage du
spectre du signal étudié. On obtient un filtrage sans distorsion car il s'effectue sans décalage de
phase. Plusieurs types de fenêtres peuvent être utilisés. L'une des plus remarquables est la fenêtre
de Kaiser-Bessel [Har 78] car elle donne une valeur optimale du coefficient correspondant au
produit de la bande passante (BP) à -3dB par la durée de la réponse impulsionnelle (DRI ) du
filtre :
Q BP DRI= × équation 3.1
Bien que leurs réponses impulsionnelles soient théoriquement infinies, les filtres à fenêtre
fréquentielle présentent en pratique une réponse impulsionnelle plus courte que les filtres FRI. Ils
restent le meilleur compromis entre les filtres FRI et FRF pour l'analyse de l'ECG-HR, car ils
permettent une bonne atténuation du segment ST avec une minimisation des rebonds sur la fin du
complexe QRS.
3.1.2. Méthode de Simson
La méthode la plus utilisée dans les milieux hospitaliers pour établir un pronostic de TV
après infarctus a été définie en 1981 par MB Simson [Sim 81,1].
3.1.2.1. Filtrage bidirectionnel de l'ECG-HR
Simson a proposé une méthode originale utilisant un filtre du type FRI. Les phénomènes de
rebond sont éliminés par une technique de filtrage bidirectionnel. L'ECG-HR est filtré d'abord de
l'onde P vers QRS, puis du segment ST vers QRS. Les effets de rebonds sont éliminés en
reconstruisant le signal à partir des premières moitiés de chacun des signaux filtrés. Le filtre
utilisé est un filtre de Butterworth à quatre pôles avec une bande passante définie entre 40 et 250
Hz.
Chapitre 3
3.1.2.2. Le vecteur amplitude
La deuxième caractéristique de cette méthode est de calculer une fonction de détection
définie par l'équation :
VA t x t y t z t( ) ( )² ( )² ( )²= + + . équation 3.2
où x(t), y(t) et z(t) sont les coordonnées instantanées mesurées sur les trois dérivations
filtrées et VA le vecteur amplitude. L’utilisation de ce vecteur simplifie considérablement
l’analyse car il est censé contenir l'ensemble des informations incluses dans les trois dérivations
pseudo-orthogonales. Ceci semble logique lorsqu'il s'agit de traiter comme en vectocardiographie
de véritables dérivations orthogonales, mais n'a pas été vérifié pour la méthode de Simson.
3.1.2.3. Détermination du début et de la fin du QRS filtré
La localisation du début et de la fin du complexe QRS filtré est effectuée sur la courbe du
VA par un algorithme proposé par Simson. Cet algorithme compare des mesures d'activité
effectuées à l'aide d'une série de trois fenêtres de durée fixe:
- Deux fenêtres, l'une d'une durée de 20 ms et l'autre d'une durée de 40 ms sont utilisées
pour mesurer deux niveaux de bruit de référence : le premier pour la détection du début du
complexe QRS (BdQRS) et l'autre pour celle de la fin du complexe (BfQRS). Ces fenêtres sont
respectivement centrées sur les instants 40 ms avant le complexe QRS et 80 ms après ce
complexe.
- Pour la détection du début de QRS, une fenêtre glissante de 5 ms est progressivement
décalée à partir de 40 ms avant le début du complexe QRS dans le sens croissant du temps
jusqu'à détecter un intervalle sur lequel l'estimation de l'activité est supérieure à la moyenne du
BdQRS plus 3 écart types. Le point milieu de cette fenêtre définit alors la localisation du début
du complexe QRS. Pour la détection de la fin du complexe, une démarche similaire est utilisée
mais dans le sens rétrograde, de l'onde T vers le QRS, avec une valeur de référence fixée à
l'activité moyenne de BfQRS plus trois écarts types.
Cette méthode a été validée en comparant les résultats de l'analyse automatique avec ceux
obtenus visuellement par deux observateurs. L'écart type des différences entre la détermination
visuelle et la détermination automatique était de ±1.2 ms ([Sim 81,1], N=66).
Chapitre 3
3.1.2.4. Paramètres et critères de Simson
Simson [Sim 81, 1] a proposé trois paramètres pour la quantification des PT. Leur
définition repose sur le constat que les potentiels anormaux prolongent la durée de QRS et de ce
fait diminuent le potentiel moyen de la fin de QRS.
3.1.2.4.1. La durée de QRS filtré (QRSf)
C'est la durée mesurée entre les points de début et de fin de QRS déterminés par la
méthode décrite ci-dessus. Cette durée est significativement plus élevée chez les patients avec
TV que chez les patients sans TV. Dans l'étude initiale de Simson portant sur 39 patients avec
TV et 27 patients sans TV, les durées de QRSf sont de 139 ms versus 95 ms, différence qui est
hautement significative (p<0.0001). Cet allongement de durée est lié à l'apparition des PT.
3.1.2.4.2. Le RMS401
C'est l'amplitude du potentiel quadratique moyen des 40 dernières millisecondes du signal.
Ce paramètre mesure l'énergie du signal dans la partie terminale du complexe QRS. En l'absence
de PT, les 40 dernières millisecondes du complexe coïncident avec la fin de la phase de
dépolarisation classique, caractérisée par une amplitude importante. La présence de PT est
caractérisée par des signaux fractionnés, de faible amplitude, abaissant significativement la
valeur du RMS40 (dans l’étude de Simson : 74 µV versus 15 µV, p<0.0001).
3.1.2.4.3. Le LAS402
Ce paramètre est la durée (en millisecondes) de la partie terminale du complexe QRS sur la
courbe du VA dont l'amplitude est inférieure à 40 µV. Cette mesure fut introduite à l'initiative de
Gomes et al [Gom 89] pour quantifier la durée des potentiels de faible amplitude présents à la fin
du complexe QRS. Le LAS40 est significativement plus élevé pour les patients avec TV que
pour les patients sans TV (44±19 ms versus 26±6 ms pour respectivement 29 et 33 patients,
[Gom 89]).
Les critères de présence des PT sont basés sur ces paramètres. Nous verrons que les critères
diffèrent selon les auteurs, avec des valeurs de seuils qui varient en fonction des fréquences de
filtrage.
1 " Root mean square in the last 40 msec of the filtered QRS complex".2 "Low amplitude signal under 40 µV of the terminal portion of the filtered QRS complex".
Chapitre 3
3.1.3. Les principales études utilisant cette analyse
La validation de la méthode de Simson a fait l’objet de diverses études qui ont également
cherché à définir une bande passante optimale pour la détection des PT. Les deux études
majeures sur ce sujet [Gom 87] [Car 89] ont permis d'évaluer la valeur pronostique des trois
paramètres de Simson, pour des valeurs de fréquence de coupure basses variant entre 10 et 100
Hz et une fréquence de coupure haute égale à 250 Hz.
Sept valeurs distinctes de fréquences de coupure basse ont été étudiées par Gomes et onze
valeurs par Caref. Ces études sont basées sur des populations comprenant chacune un groupe de
sujets sains et deux groupes de patients en post-infarctus, l'un avec TV et l'autre sans.
L'étude de Gomes [Gom 87], réalisée en 1987, montre que la durée du QRS filtré est plus
importante pour des fréquences de coupure basses situées entre 25 et 40 Hz.
En dessous et au-delà de ces valeurs, cette durée est plus faible et moins discriminante. Au
contraire du QRSf, le LAS40 augmente et le RMS40 diminue de façon monotone lorsque la
fréquence de coupure basse croît. Lorsque l'on considère la combinaison des trois paramètres,
l’efficacité diagnostique3 optimale (70%) est obtenue pour une fréquence de coupure basse fixée
à 80 Hz et non à 40 Hz.
Dans l’étude de Caref [Car 89], les durées de QRSf et de LAS40 sont plus courtes chez
les sujets normaux et les patients en post-infarctus sans TV que chez les patients avec TV, et cela
quelle que soit la fréquence de coupure du filtre. Les valeurs de RMS40 apparaissent plus basses
chez les patients avec TV, là aussi indépendamment de la fréquence de coupure utilisée. La
fréquence de coupure basse optimale est de 40 Hz.
Finalement, les conclusions que l'on peut tirer des résultats concernant les variations des
paramètres de Simson en fonction de la fréquence de coupure basse sont les mêmes pour les deux
études. La durée de QRS s’avère être le paramètre le plus discriminant lorsque les fréquences de
coupure basses sont comprises entre 25 et 80 Hz. En revanche, les fréquences de coupure basses
sont différentes lorsque l'on cherche à maximiser l'efficacité diagnostique (80 Hz pour Gomes,
40 Hz pour Caref).
3 L'efficacité diagnostique est définie comme la somme des valeurs de sensibilité et de spécificité multipliées
respectivement par le nombre de patients du groupe pathologique et du groupe de patient définit comme non-
pathologique ou de référence et divisée par le nombre total de patients.
Chapitre 3
Les études les plus récentes, comme celle de Steinberg [Ste 92], confirment la bonne
corrélation entre la présence de PT détectés quelques semaines après l’infarctus et l'apparition
d'événements arythmiques (mort subite, TV et FV) quelques mois plus tard. D'autres encore se
sont focalisées sur la recherche de valeurs de seuils optimaux pour les critères de Simson. Leurs
résultats sont récapitulés dans le tableau 3-1.
Denes a étudié la sensibilité et la spécificité de chacun des paramètres de Simson pour les
deux fréquences de coupure de 25 et de 45 Hz, après avoir définis des seuils optimaux en rapport
avec sa population. Ses conclusions montrent que la méthode la plus sensible et la plus
spécifique est obtenue pour une fréquence de coupure fixée à 40 Hz. Les études de Kuchar [Kuc
87], Verzoni [Ver 89], El-Sherif [She 89] et Steinberg [Ste 92] convergent vers les mêmes
valeurs de seuils à savoir QRSf > 120 ms, RMS40 < 20 µV et LAS40 > 38ms. Cependant, les
valeurs de sensibilité et de spécificité qu’ils obtiennent sont sensiblement différentes (cf. tableau
3-1).
En définitive, ces résultats confirment clairement l'intérêt diagnostique des paramètres de
Simson. Les valeurs médianes des résultats obtenus sont de 75.5% en sensibilité et 80% en
spécificité. Donc globalement, la méthode semble être un peu plus spécifique que sensible. Si les
variations des valeurs des paramètres en fonction de la fréquence de coupure basse sont dans
l'ensemble les mêmes, les résultats en termes de sensibilité et de spécificité sont généralement
différents d'une étude à l'autre. Il semblerait que ces différences soient attribuables à des
différences méthodologiques telles que : l'équipement, le nombre de cycle moyennés, les critères
de bruit, les méthodes d’alignement et de détection des début et fin de QRS et l'utilisation de
populations présentant des caractéristiques cliniques différentes (période d'enregistrement des PT
après l'infarctus, thérapeutique pharmacologique, topographie des infarctus, etc.). Pour la
détection des PT, une fréquence de coupure basse de 40 Hz apparaît globalement plus pertinente
mais aucune étude n'a défini clairement une bande de fréquence optimale.
Chapitre 3
Auteurs Nombre
de Pts
Année Référence Fré
(Hz)
QRSf
(ms)
RMS40
(µV)
LAS40
(ms)
Sens
(%)
Spec
(%)
VPP
(%)
Gomes 102 1981 [Gom 85] 40 > 114 < 20 > 38 87 63 29
Denes 52 1983 [Den 83] 25
40
≥ 120
≥ 120
< 25
< 20
≥ 30
≥ 39
NC
NC
NC
NC
NC
NC
Kacet 165 1987 [Kac 87, 1] 25 ∆QRS
< 13
< 35 > 27 76 96 NC
Gomes 87 1987 [Gom 87] 10
15
20
25
40
80
100
> 104
> 112
> 113
> 114
> 114
> 107
> 105
< 190
< 63
< 42
< 25
< 20
< 17
< 14
> 8
> 27
> 30
> 32
> 38
> 42
> 63
41
41
44
37
52
74
55
72
90
79
90
86
76
76
58
78
67
77
78
74
68
Kuchar 200 1987 [Kuc 86] 40 > 120 < 20 NC 92 62 17
Caref 180 1989 [Car 89] 10
20
25
30
40
50
60
70
80
90
100
>106
>115
>115
>113
>111
>111
>109
>107
>106
>105
>104
<103
<32
<25
<21
<16
<13
<11
<10
<9
<8
<7
>13
>31
>32
>35
>39
>45
>48
>49
>50
>50
>51
79
79
82
82
82
82
79
79
75
75
75
81
85
87
87
87
89
79
87
75
75
75
76
83
84
84
84
84
85
83
81
80
78
Verzoni 220 1989 [Ver 89] 40 > 120 < 20 > 38 83 73 8
El-Sherif 156 1989 [She 89] 25 ≥ 120 ≥ 25 NC 75 79 23
Breithardt 130 1990 [Bre 90] 25
40
non
utilisé
non
utilisé
non
utilisé
NC
NC
NC
NC
NC
NC
Steinberg 182 1992 [Ste 92] 40 > 110 < 20 > 38 69 62 15
Tableau 3-1 : tableau récapitulatif des principales études décrivant l'incidence (1) de la fréquence
de coupure basse du filtrage et (2) des valeurs de seuils des critères de Simson sur la sensibilité et la
spécificité de la méthode. Les résultats de sensibilité et de spécificité sont donnés pour une combinaison
des critères correspondant à deux critères satisfaits sur trois et lorsque les groupes considérés sont des
patients avec et sans TV. Pts : nombre de sujets. Année : année de publication. Référence
bibliographique. Fré : fréquence de coupure basse utilisée. QRSf, LAS40, RMS40 : valeurs des seuils
utilisés pour les critères. Sens : sensibilité. Spec : spécificité. VPP : Valeur prédictive positive. ∆QRS :
Chapitre 3
différence entre les durées de QRS standard et de QRS filtré (critère spécifique à l’étude de Kacet). NC :
valeurs non communiquées.
3.1.4. Standardisation internationale de la méthode
Pour éviter une certaine disparité dans les techniques d'enregistrement et les algorithmes
d'analyse de l'ECG-HR, une standardisation fut proposée en 1991 par un groupe de travail
international constitué par Breithardt, Cain, El-Sherif, Flowers, Hombach, Janse, Simson et
Steinbeck dans le but d'aider le cardiologue dans le choix d'une méthodologie. "L’objectif de ce
comité de travail est d’établir des standards pour l’acquisition et l’analyse ainsi que de définir le
rôle de l’électrocardiologie à haute-résolution pour la prise de décision clinique" [Bre 91].
Si la standardisation concernant les aspects techniques des systèmes d’acquisition est claire
(cf. chapitre 1, §1.3.5.2), certains aspects méthodologiques de l’analyse du signal restent encore
aujourd’hui mal définis, notamment :
- les méthodes de mesure du bruit pour l'estimation du nombre de cycle à moyenner. La
méthode décrite initialement par Simson est à l'heure actuelle très controversée par certains
auteurs (cf chap 1, §1.3.5.4).
- le choix des fréquences de coupure basse du filtre pour le calcul des paramètres de
Simson peut être de 25 Hz, de 40Hz ou de 80 Hz. Chaque cardiologue est invité à définir ses
propres valeurs de seuil.
- la détermination de la fin du complexe QRS, qui semble être une des principales sources
de discordances entre les différentes études [Hen 89] [Oef 86] reste, pour le comité international,
un problème non résolu et une pierre d'achoppement majeure.
3.1.5. Reproductibilité de la méthode conventionnelle
La fiabilité d'une méthode diagnostique est fortement liée à sa reproductibilité, c'est-à-dire
à sa capacité à reproduire des résultats identiques à partir de différents enregistrements d’un
même patient.
Denes [Den 83] fut le premier à analyser la reproductibilité à l'occasion d'une évaluation de
la méthode de Simson. Il utilisa pour cela un groupe de sujets sains (n=15) sur lesquels deux
enregistrements avaient été effectués à 15 minutes d'intervalle avec un niveau de bruit moyen de
0.6 µV. Il obtint une reproductibilité parfaite (100%) des valeurs des paramètres de Simson.
Steinberg [Ste 89] eut une approche différente. Il étudia en 1989 l'incidence du bruit
contenu dans l'ECG-HR sur la reproductibilité des paramètres de Simson. Il compara des
Chapitre 3
enregistrements avec des niveaux de bruit de 1.0 µV et de 0.3 µV sur trois types de sujets : des
patients avec TV (n=26), sans TV (n=59) et des sujets sains (n=14). Les valeurs des paramètres
de Simson étaient significativement différentes (p<0.05, test de Student) dans chaque groupe. La
présence d'un niveau de bruit élevé (>0.3µV) dans le signal implique systématiquement une
diminution de la durée du QRS filtré, de la valeur du RMS40 et une augmentation de la valeur du
LAS40. De plus, les valeurs de ces paramètres étaient plus sensibles au bruit sur les
enregistrements des patients en post-infarctus que sur ceux des sujets sains. Ce résultat est
expliqué par le fait que chez le sujet sain le point de jonction entre le complexe QRS et le
segment ST est généralement plus franc et donc plus reproductible que chez les autres types de
patients.
Borbola [Bor 88] a examiné en 1988 la reproductibilité des paramètres de Simson sur des
patients avec nécrose myocardique (n=60). La reproductibilité à court terme a été évaluée sur des
enregistrements effectués à une heure d'intervalle, la reproductibilité à plus long terme sur des
enregistrements à huit jours d'intervalle. Le niveau de bruit des enregistrements était inférieur à
0.8 µV et la différence entre les niveaux de bruit des enregistrements initiaux et finaux était
inférieure à 0.2 µV. Les résultats de cette étude montrent que la reproductibilité à court et à plus
long terme est excellente pour les sujets en post-infarctus. Cette étude met donc également en
évidence que le niveau de bruit est un facteur déterminant dans l'analyse de l'ECG-HR, car il a
une forte incidence sur les reproductibilités des paramètres à long et à court terme.
Deux ans plus tard, Sager [Sag 91] a présenté une étude sur la reproductibilité à court terme
de la méthode de Simson. Il a utilisé une population de patients avec risque d'apparition de
tachyarythmies (TV syncopales, affection coronarienne sévère, n=114). Deux enregistrements ont
été réalisés à 10 minutes d'intervalle. Dans cette étude, les ECG-HR ont été définis comme
anormaux si un seul des paramètres de Simson présentait une valeur anormale. Les seuils de
normalité des paramètres de Simson étaient légèrement différents de ceux généralement utilisés:
LAS40 > 40ms, RMS40 < 20µV et QRSf > 120ms. Le niveau de bruit moyen était inférieur à 0.4
µV sur tous les enregistrements. La durée du QRS filtré était le paramètre le plus reproductible,
avant le RMS40 et le LAS40. La reproductibilité était légèrement meilleure sur les
enregistrements pathologiques que sur les enregistrements des sujets sains (96% vs 92%),
contrairement aux résultats de Steinberg que nous venons de citer.
Une des toutes dernières études réalisées par Aganauskiene [Aga 95] évalue la
reproductibilité dite «immédiate» de la méthode de Simson, sur des enregistrements à huit
Chapitre 3
minutes d'intervalle. Cet auteur utilise une méthode originale de détection de la fin de QRS qui
consiste à faire une estimation statistique de l'amplitude des PT au moyen d'une procédure basée
sur le maximum de vraisemblance [Ata 95]. Avec cette technique et sur l'ensemble des
enregistrements, la valeur de la durée du QRS filtré est plus importante qu'avec la méthode
classique. Les moyennes sont significativement différentes : 121 ms pour la méthode statistique
contre 116 ms pour la méthode conventionnelle (p<0.05, test de Student) sur une population de
34 patients en post-infarctus avec TV. La reproductibilité de la mesure est également supérieure
pour la méthode statistique : les différences de mesure, en pourcentage, entre deux
enregistrements successifs sont significativement plus élevées en utilisant la méthode
conventionnelle (5.7 % vs 3.1 %).
D'autres auteurs [Vas 95][Kau 93][Mal 92] ont étudié la reproductibilité de la méthode
temporelle en parallèle avec d'autres méthodes que nous décrirons dans le paragraphe 4.2.4. Dans
ces études, la méthode conventionnelle est systématiquement plus reproductible que les autres
méthodes lorsque la fréquence de coupure basse est égale à 40 Hz plutôt qu'à 25 Hz. Kautzner
définit également le QRSf comme le paramètre le plus robuste pour les mesures de variabilité
intra-patient, puis vient le LAS40 et enfin le RMS40.
Finalement le QRSf s'avère être le paramètre le plus reproductible, mais la reproductibilité
de la méthode conventionnelle n'est pas parfaite. D'après Engel [Eng 93] cet inconvénient est lié
aux facteurs suivant:
- les mécanismes biologiques présentent une variabilité intrinsèque. Cependant ces
variations sont généralement faibles.
- l'apparition d'un second infarctus peut modifier les valeurs des paramètres de Simson. Ce
type de modifications n’apparaît que dans l'estimation à long terme.
- la qualité des enregistrements : la reproductibilité s'avère être très dépendante de la
détermination correcte de la fin du complexe QRS pour la méthode conventionnelle de Simson
[Vac 89] [Aga 95]. Elle est directement liée au bruit contenu dans le signal [Ste 89].
En conclusion, les paramètres de Simson sont d'autant plus reproductibles que les niveaux
de bruit sont faibles [Sag 91][Den 83].
3.1.6. Incidence de la localisation de l'infarctus
Les conclusions de Simson à propos de l'incidence de la topographie de l'infarctus sur les
valeurs des paramètres qu'il utilise sont claires : les valeurs moyennes de QRSf, de LAS40 et de
Chapitre 3
RMS40 pour les patients en post-infarctus avec risque de TV ne sont pas significativement
différentes pour des infarctus inférieurs et antérieurs. Ces conclusions ne font cependant pas
l'unanimité des auteurs. Gomes [Gom 89] a trouvé une fréquence d'apparition des PT deux fois
plus élevée chez les patients avec un IM inférieur que chez ceux ayant un IM antérieur (56% vs
27%). Buxton [Bux 87] avait déjà noté l'importance de la localisation de l'infarctus quelques
années auparavant, à l'occasion d'études sur des enregistrements électrocardiologiques
endocavitaires. L'interprétation de ce résultat reste encore hypothétique : les PT qui naissent dans
la paroi inférieure sont plus visibles sur l'ECG car ils seraient retardés par rapport à la fin de
l'onde normale de dépolarisation alors que les PT naissant dans la paroi antérieure sont plus
précoces et ont tendance à être noyé dans le complexe QRS.
3.1.7. Limites de la méthode
Les différentes études que nous venons de décrire mettent en évidence qu'il est difficile de
définir précisément la durée et les composantes fréquentielles des PT. Il est cependant reconnu
que les PT sont des phénomènes transitoires, fractionnés et de faible amplitude localisés dans les
40 dernières millisecondes du complexe QRS filtré.
Les limites de la méthode temporelle sont liées à la qualité du signal ECG-HR. Son niveau
de bruit, par exemple, est un paramètre difficile à maîtriser, qui entre en ligne de compte à deux
niveaux: (1) il joue un rôle déterminant dans la localisation de la fin du complexe QRS [Sve 92].
Une mauvaise détermination de ce point diminue la robustesse de la méthode [Oef 86][Hen 89].
Cette localisation dépend également de l'algorithme utilisé et celui de Simson ne semble pas être
optimal [Aga 95]. (2) il diminue la reproductibilité des résultats [Ste 89].
L'incidence des thérapeutiques sur la mesure des PT a été peu étudié. Les quelques résultats
sur ce sujet sont généralement discordants ou non significatifs. Néanmoins, certaines conclusions
semblent ressortir de l'ensemble de ces études : les anti-arythmiques touchent peu le début du
complexe QRS mais ont une action nette sur la portion terminale [Fre 91]. Effectivement, les PT
semblent être plus importants après l'utilisation de certains types d'anti-arythmiques, en
particulier ceux modifiant la conductance sodique (dit de classe I) [Hoh 91]. En revanche, les
médicaments avec une action anti-adrénergique (bêta-bloquants) qui sont dépourvus d'effets
électrophysiologiques directs ne modifient pas les potentiels tardifs [Den 86].
L'incidence des thérapies médicamenteuses anti-arythmiques sur les PT est peut-être plus
importante que ce que l'on peut penser. Il est donc recommandé de réaliser, si possible, les
Chapitre 3
enregistrements haute-résolution moyennés en dehors de toute thérapeutique susceptible d'en
modifier l'amplitude ou la durée.
La méthode de Simson n'est généralement appliquée qu'aux patients en post-infarctus sans
bloc de branche. Le bloc de branches, qui peut être droit, gauche ou complet, est un trouble de la
propagation de l'onde de dépolarisation ventriculaire. Ce trouble apparaît comme un
ralentissement ou un arrêt de la conduction et implique un allongement du complexe QRS. Ces
blocs apparaissent dans 3 % des infarctus du myocarde [Fre 87]. Les patients porteurs d’un bloc
de branche (BB) présentent donc une anomalie de la conduction qui masque les PT puisque la
durée du complexe QRS non filtré est généralement supérieure à 120 ms [Lac 90]. Cette
conséquence inhérente aux BB, justifie pour la plupart des auteurs, l’exclusion de ces patients
des populations d'étude. Ainsi pour Haberl [Hab 90], Lindsay [Lin 88] et Breithardt [Bre 91],
l'efficacité diagnostique de la méthode temporelle pour la détection des PT chez les patients avec
un BB est trop faible (<60%). Pour d'autres auteurs [Fon 91][Kac 87, 2], elle est acceptable (de
62 à 83 % selon les études). La conclusion adoptée par la majorité des auteurs est d'éliminer les
patients avec un BB ou alors de les étudier indépendamment [Kac 87] , [Kin 86] , [Edw 87],
[Buc 88], [Bab 91], [Bre 90], [Wat 89].
3.2. Application de la méthode temporelle à notre population d'étude
La méthode classique de Simson a été appliquée sur notre population selon la
normalisation internationale. Nous avons utilisé le système ARTTM EPX 1200, avec une bande
passante fixée entre 40 et 250 Hz et un nombre de cycles de moyennage variable en fonction du
niveau de bruit moyen (mesure du bruit sur le VA inférieure à 0.5 µV, cf. § 1.3.5.4.1). Le nombre
moyen de cycles enregistrés sur notre population d'étude est égal à 155±14 cycles (m±σ).
3.2.1. Analyse des paramètres de la méthode conventionnelle
Caractéristiques/Groupes IM+TV
(n=23)
IM-TV
(n=40)
IM+TV
ant.
(n=11)
IM+TV
inf.
(n=12)
IM-TV
ant. (n=20)
IM-TV
inf.
(n=20)
Sains
(n=31)
Bruit moyen (µV) 0.33±0.1 0.32±0.1 0.33±0.1 0.35±0.1 0.36±0.1 0.30±0.1 0.43±0.1
RMSQRS (µV) 69±38 80±28 47±15 88±42 70±24 90±29 117±52
QRSf (ms) 125±25 99±12 131±33 119±15 97±12 102±11 96±7
LAS40 (ms) 48±20 34±11 48±25 47±19 30±10 37±12 26±8
RMS40 (µV) 17±10 40±28 20±12 14±5 46±31 34±23 63±4
StdQRS (ms) 104±8 98±10 104±7 104±9 99±9 98±11 94±8
Chapitre 3
Tableau 3-2 : moyennes et écart types des différentes valeurs des paramètres de Simson ainsi que
du niveau de "Bruit moyen" et de l'énergie du complexe QRS total filtré (RMSQRS) sur notre population
d'étude. IM+TV : patients après un infarctus du myocarde avec tachycardies ventriculaires. IM-TV :
patients en post-infarctus sans tachycardie ventriculaire, ant. : topographie antérieure, inf. :
topographie inférieure.
Les principales caractéristiques cliniques de notre population d'étude, ainsi que les valeurs
moyennes et écart types des paramètres de Simson, sont récapitulés dans le tableau 3.2.
3.2.1.1. Etude statistique
3.2.1.1.1. Tests de comparaison de moyennes
Les résultats des tests de comparaison de moyennes des paramètres de Simson sont
présentés dans la figure 3-1. L'ensemble des résultats sont significativement différents (p<0.001),
à l'exception de la mesure de la durée du QRS filtré (QRSf) lorsque l'on compare le groupe de
contrôle et les patients en post-infarctus sans TV (p<0.05). Le QRSf mesure donc une anomalie
caractérisant uniquement les patients en post-infarctus avec TV.
Figure 3-1 : comparaison des moyennes (m+σ) de chaque paramètre de Simson. Utilisation de la
méthode du test de Student pour l’évaluation de la significativité des différences de moyennes sur notre
population (NS : non significatif).
Chapitre 3
Ces résultats sont concordants avec les données de la littérature présentées dans le
paragraphe §3.1.2.4 : des valeurs de QRSf plus élevées chez les post-infarctus avec TV, des
durées de la portion terminale du QRS avec des potentiels inférieurs à 40 µV (LAS40) également
plus élevées et enfin des énergies des 40 dernières millisecondes du QRS plus faibles.
3.2.1.1.1.1. Incidence de la topographie de l’infarctus
Il est également intéressant de vérifier les résultats de Simson concernant l'incidence de la
topographie de l’infarctus sur les valeurs des paramètres temporels lorsqu'ils sont appliqués à
notre population.
D'après Simson, la topographie de l'infarctus n’influence en aucun cas les valeurs de ses
paramètres temporels. Ces résultats se vérifient globalement sur notre population, pour un seuil
de significativité égale à 0.05 (test de Student). Seule la valeur du LAS40 semble légèrement
différente lorsque l'on compare les IM+TV antérieurs aux IM+TV inférieurs (cf. figure 3-2). Ceci
est expliqué par la présence de deux patients en post-infarctus et sans TV présentant des valeurs
de LAS40 très élevées (86 et 106 ms).
Figure 3-2 : comparaison des moyennes (m+σ) des paramètres de Simson entre les différentes
localisations de l'infarctus sur notre population. Utilisation du test de Student pour l’évaluation de la
significativité des différences (NS : non significatif, ant. : antérieur, inf. : inférieur).
3.2.1.1.2. Etude par coalescence
Chapitre 3
L'écart type nous donne une image de la dispersion des valeurs des paramètres de Simson
sur notre population d'étude. Néanmoins cette valeur statistique ne permet pas d'évaluer dans
quelle mesure les valeurs d'un patient donné interviennent sur l'ensemble des valeurs étudiées. En
fait, nous cherchons à connaître clairement les caractéristiques de notre population d'étude, et en
particulier si les distributions des valeurs des paramètres de la méthode conventionnelle sont
homogènes et uni-modales. Un outil de choix pour séparer chacune des classes de l'ensemble
d'apprentissage en sous-classes homogènes est la classification automatique non hiérarchique. La
méthode par coalescence ou "K-means" proposée par le logiciel BMDP (KM), est appropriée à ce
type d'analyse de données quantitatives [Eng 80].
L'analyse par coalescence est une méthode statistique non-supervisée [Har 75][Did 82] qui
permet de subdiviser un ensemble de cas en des sous-ensembles (ou nuées) afin d'évaluer
l'homogénéité d'une série de cas décrivant une population. Dans l'algorithme KM, le centre de la
nuée est défini comme la moyenne des valeurs des cas constituant cette nuée. L'analyse associe
chaque cas à la nuée dont le centre est le plus proche au sens des distances euclidiennes. Cette
analyse utilise une démarche itérative séparant l'ensemble des cas en deux nuées puis chacune
d'elles en deux autres et ainsi de suite jusqu'à obtenir le nombre de nuées désiré.
Nous appliquons l'analyse par coalescence sur nos trois groupes (IM+TV, IM-TV et Sains)
indépendamment les uns des autres en fonction des trois paramètres classiques de Simson :
RMS40, QRSf et LAS40. Le choix du nombre de groupes est fixé à quatre et découle d'une
démarche empirique qui a mis en évidence que :
• deux groupes aboutissent généralement à isoler des cas extrêmes ayant des valeurs
atypiques par rapport aux autres cas.
• trois groupes font généralement apparaître une ou plusieurs nuées avec une
configuration hétérogène.
• quatre groupes s'avèrent être suffisants et semblent capables de définir des groupes
homogènes.
Nous présentons ci-après les résultats de la classification automatique des groupes IM+TV,
IM-TV et Sains par l'algorithme KM. Les représentations utilisées dans les figures 3.3, 3.4 et 3.5
sont les projections orthogonales des cas sur le plan défini par les centres des trois nuées
comportant le plus de cas.
Chapitre 3
Analyse du groupe IM avec TV
La méthode par coalescence met en évidence que deux nuées (A1 et A2) sont très
excentrées par rapport aux deux autres, qui contiennent la majorité des cas (cf. figure 3.3).
....+....+....+....+....+....+....+....+....+....+....+....+...
- 1 -
- -
- -
- 1 -
2 + +
- -
- 1 -
- 2 -
- -
- -
- 333 4 -
0 + 3 333 4 44 +
- 3 4 -
- 33 -
....+....+....+....+....+....+....+....+....+....+....+....+...
-3 -1 1 3 5 7
-4 -2 0 2 4 6
Figure 3-3 : résultats de la classification des cas du groupe IM+TV en quatre groupes. Dans cette
représentation, quatre cas de la nuée A3 sont superposés.
La nuée A1 est constituée de trois patients présentant une durée de QRS filtré (QRSf)
supérieure à 158 ms. Ces cas sont évidemment bien classés par la méthode de Simson. La nuée
A2 correspond à un seul cas qui au contraire du groupe précédent est caractérisé par une valeur
de QRSf très faible (98 ms) et une valeur de RMS40 très élevé. Ce cas est classé comme patient
sans TV par la méthode conventionnelle. La nuée A3 contient le nombre le plus élevé de cas (14
patients), et apparaît comme la plus homogène. La nuée A4 est formée de 5 patients qui, bien que
présentant tous une valeur de LAS40 élevée (>44 ms), sont tous correctement classés par la
méthode conventionnelle.
Analyse du groupe IM et sans TV
Cette analyse a abouti à la définition de quatre nuées B1 à B4, respectivement constituées
de huit, cinq, neuf et 18 cas (cf. figure 3-4).
La nuée B1 regroupe les cas présentant des valeurs de RMS40 très élevées (>70 µV) et de
LAS40 faibles (<30ms). La nuée B2 contient des cas qui présentent une durée de QRS filtré
A1
A2
A3A4
Chapitre 3
(QRSf) supérieure à 110 ms et simultanément un RMS40 faible (<10 µV). La totalité de ces cas
sont classés comme patients avec TV par la méthode conventionnelle. La nuée B3 concentre les
cas dont le RMS40 est faible (de 10 à 20 µV). Sept de ces neuf patients sont classés de façon
incorrecte par la méthode conventionnelle. La dernière nuée (B4) définit apparemment un groupe
homogène caractérisant une population type de patients tous classés en post-infarctus sans TV
par la méthode conventionnelle.
...+....+....+....+....+....+....+....+....+....+....+....+....
2 L +
- -
- -
- -
- -
- 1 1 -
L 1 -
1 + 1 +
- -
- 1 -
- 1 3 H
- 4 4 -
- 44 4 -
- 4 4 3 -
0 + 4 4 4 3 3 3 3 22 2 +
- 4 4 3 -
- 4 4 4 4 3 3 2 -
- 4 4 -
...+....+....+....+....+....+....+....+....+....+....+....+....
-1.5 -.50 .50 1.5 2.5 3.5
-2.0 -1.0 0.0 1.0 2.0 3.0
Figure 3-4 : représentation des cas de la population IM-TV par l'analyse par coalescence en
quatre nuées. La nuée B4 présente 2 cas superposés. Les nuées B1 et B2 ont respectivement 2 et 1 cas en
dehors de la représentation, L et H indiquent les ordonnées de ces cas.
Analyse du groupe de sujets sains ou groupe de contrôle
Les quatre sous-groupes constitués par l'analyse par coalescence de la population de sujets
sains présentent des centres qui sont plus proches les uns des autres que dans les deux analyses
précédentes. Ceci traduit une meilleure homogénéité de l'ensemble de cette population (cf. figure
3-5). La nuée C1 contient 5 cas qui présentent un RMS40 très faible (<35 µV) et un cas
caractérisé par un LAS40 très élevé (>40 ms). La nuée C2 isole un seul cas caractérisé par une
valeur très élevée de RMS40 (>190 µV) et un LAS40 faible (15 ms). Les deux dernières nuées
(C3 et C4) se distinguent uniquement par les valeurs de RMS40, plus élevées pour les cas de C3.
Tous les sujets sains sont correctement classés par la méthode conventionnelle.
B1
B2B3B4
Chapitre 3
.+....+....+....+....+....+....+....+....+....+....+....+....+.
- -
- 1 -
- 1 3 -
- 1 -
- 1 1 -
- -
- -
.90 + 4 +
- 4 -
- 4 -
- 3 -
- 1 3 -
- 4 4 4 -
- 4 3 3 -
- -
0.0 + +
- 3 3 -
- -
- 4 4 -
- 4 4 3 -
- -
- 4 3 -
- 3 -
-.90 + 3 +
- -
- -
- 4 -
- 2 -
.+....+....+....+....+....+....+....+....+....+....+....+....+.
-1.5 -.50 .50 1.5 2.5 3.5
-2.0 -1.0 0.0 1.0 2.0 3.0 4.0
Figure 3-5 : résultats de la classification de la population de sujets sains par l'algorithme du "K-
means".
3.2.1.1.3. Conclusion
Le groupe de patients avec TV est le moins homogène. L'étude par coalescence de ce
groupe a fait apparaître des nuées ayant des centres éloignés les uns des autres en comparaison
avec les distances séparant les nuées des deux autres populations (IM-TV et Sains). Finalement,
le groupe IM+TV n'a pas une distribution uni-modale. L'analyse par coalescence des deux autres
populations (IM-TV et Sains) met en évidence que ces groupes sont plus homogènes que le
C1 C
C2C4
Chapitre 3
premier puisque seules les nuées B1 et C2, composées respectivement de huit et un cas,
correspondent à des patients dont les valeurs des paramètres temporels sont atypiques. Ces cas
restent en général correctement classés par la méthode conventionnelle.
3.2.2. Détection des potentiels tardifs par la méthode classique
Les critères utilisés dans cette section sont ceux recommandés par le comité international
pour une fréquence de coupure basse égale à 40 Hz. Les résultats sont présentés dans le tableau
3-3. L'efficacité diagnostique maximale de la méthode conventionnelle est obtenue en utilisant
trois critères satisfaits sur trois (79.3%). Cependant, l'équilibre entre la sensibilité et la spécificité
(47.8 et 97.5%) est mauvais (cf. tableau 3-3). Pour un critères sur trois, le résultat est également
déséquilibré avec une spécificité trop faible (62.5 %). Finalement, l'utilisation de deux critères
sur trois fournit une efficacité diagnostique plus faible (73%) mais assure un meilleur équilibre
entre les valeurs de sensibilité et la spécificité (69.5 et 75 %). Avec ce type de combinaison,
aucun des sujets normaux n'est classé comme pathologique.
D'après notre revue de la littérature et pour une utilisation classique des critères (deux
critères positifs sur trois) ainsi qu'une fréquence de coupure basse fixée à 40 Hz, les valeurs les
plus couramment citées pour la sensibilité et la spécificité de la méthode de Simson sont
respectivement de 70% et 75%. Les résultats que nous obtenons sur notre population coïncident
donc avec ceux de la littérature.
Nb de
critères
Sensibilité
(%)
Spécificité
(%)
Efficacité
diagnostique
(%)
Normaux
1/3 95.6 62.5 74.6 96.7
2/3 69.5 75.0 73.0 100
3/3 47.8 97.5 79.3 100
Tableau 3-3 : résultats de la méthode de Simson en termes de sensibilité et de spécificité.
Nous avons choisi, dans notre méthode, d’opter pour un équilibre des valeurs de sensibilité
et de spécificité. Cependant, souvent les cardiologues préfèrent utiliser une méthode plus
spécifique que sensible. Ce choix est argumenté par le fait que la méthode est appliquée
systématiquement aux patients qui viennent de faire un infarctus et que le pourcentage du
nombre de patients avec risque de TV est faible dans cette population. Il est donc préférable
d'être plus spécifique pour ne pas avoir un nombre de faux positifs trop important. Cette option
méthodologique permet d'éviter de prescrire à un trop grand nombre de patients des
thérapeutiques qui présentent un risque iatrogéne important, alors que statistiquement les patients
Chapitre 3
traités ne présentent pas vraiment de risque de TV. D'autres choix restent possibles en fonction
du contexte clinique du patient (antécédent familiaux, etc.).
3.2.3. Optimisation de la détection des potentiels tardifs par les paramètres
de Simson
La méthode conventionnelle propose des critères validés sur des populations différentes de
la nôtre. Cette partie de notre travail redéfinit des valeurs de seuils pour adapter et optimiser ces
critères en fonction de notre population d'étude. Cette optimisation sera réalisée par
l'intermédiaire de deux méthodes statistiques: les courbes ROC appliquées sur chaque paramètre
de Simson afin d'en étudier très précisément et indépendamment leurs caractéristiques, et une
méthode d'apprentissage avec professeur, l'analyse factorielle discriminante pas-à-pas.
3.2.3.1. Optimisation par utilisation de courbes ROC
Les courbes ROC (Receiver Operating Characteristic) présentent l'évolution de la
sensibilité d'une méthode en fonction de sa spécificité. Les points de cette courbe sont obtenus en
faisant varier la valeur du seuil du critère de discrimination des cas. La courbe ROC idéale a des
variations en sensibilité qui se font pour une valeur de spécificité proche de la valeur maximale
(100%) et des variations en spécificité qui s’opèrent pour une valeur de sensibilité optimale
proche de 100%. Sa surface doit idéalement tendre vers la valeur 1. Cette courbe permet de
connaître très précisément la valeur du seuil permettant de séparer au mieux les deux groupes en
fonction du critère d'optimisation que l'on s'est fixé. De plus, elle met en évidence le pouvoir
discriminant d'un paramètre en mesurant l'aire sous la courbe : plus cette aire s’approche de sa
valeur maximale, plus ce paramètre est pertinent [Deg 91].
Elle permet également d'opter pour une méthode plus spécifique ou plus sensible selon les
priorités de l'utilisateur. Nous définissons le point optimal sur la courbe ROC comme le point
correspondant à la fois à une efficacité diagnostique optimale et au point le plus proche de la
diagonale du plan. Ce point correspond donc au meilleur équilibre entre les valeurs maximales de
sensibilité et de spécificité. La mise en œuvre de cette méthode et la détection de ce point sont
réalisées par des algorithmes simples explicités dans l'annexe C.
3.2.3.1.1. Seuil de QRSf
Les résultats sont récapitulés dans le tableau 3-4. La différence de valeurs entre le seuil
normal et le seuil optimal est d'une seule milliseconde pour la durée du QRS filtré (113 ms
Chapitre 3
versus 114 ms). La valeur du seuil optimisé correspond à un gain en sensibilité de 4,4 %, soit un
patient mieux classé.
Sensibilité Spécificité Sains Efficacité
Diagnostique
Critère conventionnel QRSf>114 69.6 90.0 100 82.6
Critère optimisé QRSf>113 73.9 90.0 100 84.1
Tableau 3-4 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des
critères basés sur le paramètre QRSf appliqué à notre population d'étude.
Ce paramètre est très pertinent puisque l'on remarque que la courbe ROC (cf. figure 3-6)
présente une allure idéalisante avec une surface importante (0.86 pour une valeur maximale de
1). Il est également plus spécifique que sensible et permet de séparer les sujets sains des patients
en post-infarctus avec TV.
3.2.3.1.2. Seuil du LAS40
L'écart en termes d'efficacité diagnostique entre la valeur optimale et la valeur normale est
de 7.9% (cf. tableau 3-5). La différence des valeurs de seuil est de 4 ms (38 ms versus 34 ms
pour le critère conventionnel). La pente de la courbe ROC s'approche d'une droite de pente 1 et
l'aire sous la courbe est beaucoup plus faible que pour le QRSf (0.74 versus 0.86) (cf. figure 3-6).
Ces caractéristiques traduisent la difficulté du paramètre à séparer les deux populations. Cette
observation va dans le sens des comparaisons de moyenne qui ont mis en évidence que le QRSf
est un paramètre plus pertinent que le LAS40 (p=0.003 vs p=9.5 10-5).
% Sensibilité Spécificité Sains Efficacité
Diagnostique
Critères conventionnels LAS40>38 60.9 67.5 90.3 65.1
Critères optimisés LAS40>34 86.9 65.0 87.1 73.0
Tableau 3-5 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des
critères basés sur le paramètre LAS40 appliqués à notre population d'étude.
Chapitre 3
3.2.3.1.3. Seuil du RMS40
Sensibilité Spécificité Sains Efficacité
Diagnostique
Critères conventionnels RMS40<20 73.9 72.5 100 73.0
Critères optimisés RMS40<21.3 82.6 70.0 93.5 74.6
Tableau 3-6 : valeurs de sensibilité et de spécificité pour les valeurs standards et optimales des
critères basés sur le paramètre RMS40 appliqués à notre population d'étude.
Ce paramètre présente également une courbe éloignée de la forme idéale et plus proche de
la diagonale du repère avec une surface sous la courbe égale à 0.78 (cf. figure 3-6). Les valeurs
optimales et normales sont très proches, 20 µV versus 21.3 µV pour la valeur optimisée (cf.
tableau 3-6). L'amélioration en termes d'efficacité diagnostique n'est que de 1.6%. L'équilibre
entre la sensibilité et la spécificité est néanmoins meilleur pour la valeur de seuil normal.
3.2.3.1.4. Combinaison des paramètres et discussion
La superposition des courbes ROC des paramètres QRSf, LAS40 et RMS40 permet de
comparer visuellement leurs aires respectives (cf. figure 3-6). La supériorité du paramètre QRSf
par rapport aux deux autres est évidente. C'est également le paramètre dont le seuil optimal est le
plus proche de sa valeur conventionnelle, caractéristique qui traduit une bonne robustesse de ce
critère.
Utilisant la même démarche que Simson, c'est-à-dire une combinaison logique (au sens
booléen) des résultats de chaque critère, a conduis aux résultats présentés dans le tableau 3-7.
Le fait de chercher à optimiser les critères s'est traduit par une amélioration de la sensibilité
de la méthode (+13%) mais au détriment de la spécificité qui a diminué (-7.5%). Les valeurs
d'efficacité diagnostique sont les mêmes entre les deux approches. L'optimisation ne permet donc
pas, en fin de compte, une augmentation de la performance diagnostique de la méthode mais
seulement un réajustement des valeurs de sensibilité et de spécificité de la méthode.
Chapitre 3
Nb de
critères
Sensibilité
(%)
Spécificité
(%)
Efficacité diagnostique Sains
1/3 95.7 65.0 76.2 80.6
2/3 82.6 67.5 73.0 93.5
3/3 65.2 82.5 76.2 100
Tableau 3-7 : résultats en termes de sensibilité et de spécificité sur la population d'étude en
utilisant trois combinaisons des critères basés des valeurs optimales de seuils déterminées par les
courbes ROC.
Seulement trois patients en post-infarctus avec TV interviennent dans l’augmentation de la
sensibilité. Ces patients présentent des valeurs de RMS40 ou de LAS40 à la limite des seuils
(respectivement 20.1 à 23.1 µV et 37 à 38 ms). Le classement de deux patients avec IM et sans
TV change selon le critère utilisé, standard ou optimisé. L'un de ces patients présente une valeur
de RMS40 à la limite du seuil (20.1 µV) et l'autre est caractérisé par une valeur de LAS40 élevée
(37 ms). Comme on peut le constater, les différences de valeurs de sensibilité et de spécificité
entre les critères standards et optimisés sont dues aux paramètres LAS40 et RMS40. Ces résultats
démontrent le manque de robustesse de ces deux paramètres temporels.
Chapitre 3
Figure 3-6 : courbes ROC des paramètres de la méthode conventionnelle. Courbes ROC de la
durée de QRS filtré, du LAS 40 et du RMS40 pour un filtrage entre 40 et 250 Hz. Sur ces courbes ROC,
les triangles et les carrés repèrent respectivement les valeurs de sensibilité et de spécificité pour les
critères conventionnels et les valeurs optimisées.
3.2.3.2. Optimisation par analyse factorielle discriminante
La méthode décisionnelle utilisant les courbes ROC présente un inconvénient majeur. C'est
en effet une méthode décisionnelle de type heuristique où les surfaces de décision sont
orthogonales aux axes des paramètres descripteurs, c'est-à-dire que cette méthode considère
séparément les valeurs des paramètres temporels. Une méthode multidimensionnelle telle que
l'analyse factorielle discriminante pas-à-pas (proposé par le logiciel BMDP-7M) a une approche
différente : elle détermine une fonction de classification combinant linéairement les valeurs des
paramètres temporels. Dans le cas d'une dichotomie, ces paramètres sont projetés sur un axe
discriminant qui optimise la séparation des groupes. De plus, l'utilisation de l'analyse
discriminante en mode "pas-à-pas" procure un classement des paramètres en fonction de leur
pertinence.
Finalement, l’objectif de l'utilisation de l'analyse discriminante est double :
(1) hiérarchiser les paramètres temporels en fonction de leur pertinence pour la
discrimination des deux groupes de patients avec IM. Cette méthode calcule à chaque pas la
valeur du F de Fischer permettant d'évaluer le pouvoir discriminant de chaque paramètre.
(2) améliorer la qualité de la discrimination entre les groupes IM+TV et IM-TV en
introduisant des fonctions de décision multidimensionnelle.
Pour être généralisable, l'analyse discriminante doit être effectuée sur un échantillon
supposé représentatif d'une population et pour laquelle on connaît la catégorie à laquelle
appartient chaque individu. Dans la pratique, il est difficile d'évaluer si la population est
statistiquement représentative de la classe de problèmes considérée, a fortiori si elle est
comprend un nombre faible de cas. Dans ce cas, l'approche la plus couramment utilisée consiste
à effectuer une phase d'apprentissage utilisant une partie de la population et ensuite à vérifier la
validité de la fonction de classification sur le reste de la population (phase de test). Si les
résultats de la phase de test sont les mêmes que ceux de la phase d'apprentissage, on peut alors
supposer que la méthode décisionnelle est fiable et généralisable.
L'analyse discriminante est une méthode de classement linéaire dont les surfaces de
décision sont limitées à des hyperplans concourants. Nous aurions pu adopter une autre approche
Chapitre 3
telle que le classement par réseaux de neurones. Cette option n'a pas été retenue car nous ne
disposons que d'une population d'analyse très limitée en nombre. Les réseaux de neurones ont en
effet tendance à "apprendre par cœur" et pour pouvoir être généralisables, nécessitent des phases
d'apprentissage mettant en œuvre des ensembles d'apprentissage possédant un nombre de cas
sensiblement plus élevé que les méthodes linéaires.
L'analyse discriminante a tout d'abord été appliquée à toute la population d'étude afin
d'obtenir une hiérarchisation des paramètres sur un nombre maximal de cas. Ensuite nous avons
évalué la robustesse des fonctions de classification en utilisant des groupes d'apprentissage et des
groupes de test constitués aléatoirement. Dans chaque analyse, nous n'avons considéré que les
deux groupes de patients en post-infarctus (IM+TV, IM-TV), le groupe de sujets sains ayant été
déclaré en anonyme. Notre objectif est en effet de séparer les patients avec risque de TV de
l'ensemble des patient en post-infarctus. Le groupe de sujet sains n'est utilisé qu'à titre de contrôle
pour évaluer le comportement de nos méthodes sur les ECG-HR normaux.
3.2.3.2.1. Analyse de la totalité de la population
3.2.3.2.1.1. Séparation IM+TV versus IM-TV
L'analyse discriminante est utilisée sur trois pas avec la possibilité d'examiner les résultats
de la classification après chaque paramètre introduit. Les résultats sont présentés dans le tableau
3-8.
N° du pas Paramètre
introduit
Sensibilité Spécificité Efficacité
diagnostique
Sains
1 QRSf 73.9 90.0 84.1 100
2 LAS40 65.2 90.0 80.9 87.0
3 RMS40 73.9 87.5 82.5 83.8
Tableau 3-8 : récapitulatif des résultats de l'AD sur les deux groupes (IM+TV), (IM-TV) avec le
groupe des sujets sains en anonyme.
Les deux fonctions de classification élaborées par l'analyse discriminante à l'issue de la
phase d'apprentissage sur trois pas sont définies par la matrice des coefficients suivants :
GROUPES = IM+TV IM-TVVARIABLES QRSf 1.03657 0.87763 RMS40 0.14425 0.18043 LAS40 -0.75772 -0.61824
CONSTANTE -48.68689 -37.52473
Chapitre 3
L'analyse discriminante affectera un cas anonyme X au groupe pour lequel la fonction
discriminante est maximale.
Au premier pas et en ne considérant que le paramètre de la durée de QRS filtré, on obtient
des valeurs de sensibilité et de spécificité optimales ainsi qu'un classement parfait des sujets
sains. Ce résultat est tout à fait comparable à celui obtenu par les courbes ROC lorsque l'on
considère les paramètres isolément (cf. tableau 3-4). L'introduction des autres paramètres
diminue ce résultat. Cette évolution des résultats est a priori surprenante car on observe
généralement ce genre de problèmes beaucoup plus tard après l'introduction d'un grand nombre
de paramètre. Elle s'explique d'une part par la très grande qualité du paramètre QRSf qui a lui
tout seul permet d'obtenir une efficacité diagnostique proche de 84%, et d'autre part par le fait
que la distribution de notre population n'est pas uni-modale (cf. étude par coalescence,
§3.2.1.1.2.).
Pour la séparation des groupes IM+TV et IM-TV, c'est le LAS40 qui apparaît comme le
paramètre le plus discriminant après le QRSf. Son utilisation diminue néanmoins
considérablement les valeurs de sensibilité (-8.7%). Le RMS40, introduit comme troisième
variable, rééquilibre les valeurs de spécificité et de sensibilité mais donne un nombre plus
important de sujets sains mal classés.
Parmi les six patients du groupe IM+TV mal classés par l'AD, deux patients sont bien
classés par la méthode conventionnelle. Un des patients présente une valeur faible de LAS40 (40
ms) et l'autre une durée de QRS filtré élevée (119 ms). Dans le groupe IM-TV, quatre patients sur
les cinq mal classés par l'analyse discriminante le sont également par la méthode
conventionnelle. Le cinquième présente une valeur de QRSf légèrement élevée (110 ms).
3.2.4. Variabilité des résultats en fonction des ensembles d'apprentissage et
de test.
3.2.4.1. Variabilité des résultats dérivés des courbes ROC
L'évolution des seuils optimaux et des résultats des courbes ROC en fonction des sous-
populations d'apprentissage et de test (cf. annexe B) est intéressant à plus d'un titre. Elle constitue
un moyen privilégié pour avoir une idée de la robustesse de ces méthodes sur notre population
d'étude. Nous résumons ci-après les valeurs de sensibilité, spécificité et efficacité diagnostique
pour l'approche conventionnelle, la phase d'apprentissage et la phase de test ainsi que les valeurs
Chapitre 3
des surfaces sous les courbes ROC (cf. tableau 3-9). La totalité des résultats sont décrits dans
l'annexe D.
Les différences de valeurs moyennes de sensibilité et de spécificité entre les phases
d'apprentissage et de test ne sont pas significatives pour le paramètre QRSf. De plus, l'égalité des
moyennes des surfaces sous les courbes ROC entre ces deux populations confirme la robustesse
de ce paramètre. Le LAS40 s'avère être beaucoup moins robuste. Ses valeurs de sensibilité sur les
différentes populations sont significativement différentes pour les deux évaluations. Les
moyennes des valeurs des surfaces sous les courbes ROC sont également différentes. Enfin, la
robustesse du paramètre RMS40 se situe entre celle du QRSf et celle du LAS40. Les surfaces des
courbes ROC sont quasiment égales et seules les valeurs de sensibilité entre les phases
d'apprentissage et de test sont significativement différentes.
Les valeurs d'efficacité diagnostique des phases de test sont globalement plus faibles que
celles d'apprentissage, et ceci pour les trois paramètres.
Cette étude de la variabilité des paramètres confirme donc les résultats obtenus avec les
surfaces des courbes ROC calculées sur l'ensemble des populations : le plus robuste des
paramètres de Simson est le QRSf puis vient le RMS40 et enfin le LAS40.
# Simson standard {Apprentissage} {Test} surfaces ROC
n
spec.
20
sens.
12
ED Norm
31
Seuils
opt.
spec.
20
sens.
12
ED Norm
31
spec.
20
sens.
11
ED App. Test
QRSf
moyenne 87.0 75.9 83.0 100 109.1 82.7 81.9 82.4 99.1 81.4 75.3 76.8 0.90 0.90
médiane 85.0 75.0 84.4 100 110.0 85.0 83.3 84.4 100 85.0 72.7 78.1 0.90 0.90
σ 5.2 7.3 5.1 0 4.4 13.2 5.7 6.9 0.0 12.8 8.7 5.9 0.0 0.0
LAS40
moyenne 66.2 62.7 64.6 90.3 34.0 62.6 94.0 74.4 86.2 62.9 81.8 67.4 0.80 0.70
médiane 65.0 66.6 65.6 90.3 34.0 63.1 91.6 75 87.2 65.0 81.8 68.7 0.80 0.70
σ 8.6 7.6 4.9 0.0 1.4 9.5 6.3 4,9 2.5 8.1 7.4 4.0 0.0 0.0
RMS40
moyenne 70.5 74.7 72.0 100 19.6 70.5 78.3 73.497.2 74.3 63.6 68.3 0.75 0.77
médiane 70.0 75.0 70.8 100 19.0 70.0 75.0 71,9 100 80.0 63.6 71.9 0.80 0.80
σ 5.4 6.9 4.5 0.0 2.2 5.4 8.0 5.2 3.5 11.7 17.4 5.8 0.1 0.1
Tableau 3-9 : tableau récapitulatif des résultats moyens obtenus avec les courbes ROC pour 7
tirages aléatoires des populations d'apprentissage et de test. Colonnes 2 à 5 : valeurs de spécificité,
sensibilité et efficacité diagnostique et du pourcentage de sains correctement classés par la méthode de
Simson standard. Colonne 6 : valeurs de seuils optimaux définis par les courbes ROC sur la population
Chapitre 3
d'apprentissage. Colonnes 7 à 10 : valeurs de spécificité, sensibilité, efficacité diagnostique et du
pourcentage de sains correctement classés pour les phases d'apprentissage. Colonne 11 à 13 : valeurs
de spécificité, sensibilité, efficacité diagnostique sur la population de test. Colonnes 14 et 15 : valeurs
des surfaces sous les courbes ROC pour les sous-ensembles d'apprentissage et de test. Nous avons
comparé les valeurs de la sensibilité, spécificité, efficacité diagnostique et le pourcentage de sains
correctement classés entre la phase d'apprentissage et la méthode de Simson standard, puis entre la
phase de test et la phase d'apprentissage. Les moyennes significativement différentes sont en gras.
Les valeurs de seuils optimaux sont systématiquement plus faibles pour le QRSf et le
LAS40 que ceux de l'approche conventionnelle. Cette modification va dans le sens d'une
optimisation de la sensibilité au détriment de la spécificité, pour la méthode utilisant les courbes
ROC.
En ce qui concerne le classement des sujets sains, il apparaît que le gain en terme
d'efficacité diagnostique obtenu par l'intermédiaire des courbes ROC est accompagné par une
baisse significative du pourcentage de sains bien classés (-1% à -4% selon les paramètres
considérés). La variabilité des valeurs du RMS40 et du LAS40 en termes de sensibilité, de
spécificité et de classement des sujets sains, souligne leur faible valeur discriminante par rapport
au QRSf.
3.2.4.2. Variabilité des résultats de l'analyse discriminante
Nous avons montré dans la section 3.2.3.2.1. que l'AD permettait, comparativement à
l'approche conventionnelle, d'améliorer de façon conséquente les résultats en termes de
sensibilité et de spécificité. Néanmoins, ces résultats ayant été établis sur la totalité de notre
population d'étude sans validation sur une population de test indépendante, il existe un risque que
notre méthode ne soit pas généralisable à une population autre que notre population d'étude. Afin
d'évaluer la robustesse de notre méthode, nous avons étudié le comportement de l'analyse
discriminante sur les sept populations aléatoires utilisées dans le paragraphe précédent. Les
fonctions de classifications sont construites sur les populations d'apprentissage, puis validées sur
les populations de test.
Les résultats récapitulant les valeurs de sensibilité et de spécificité pour ces 7 populations
sont présentés dans le tableau 3-10. Les sujets sains n'ont pas participé à l'apprentissage et
comme précédemment sont considérés anonymement. L'intégralité des résultats est rapportée
dans l'annexe E.
Chapitre 3
Apprentissage Test
n
Spécificité
20
Sensibilité
12
ED Spécificité
20
Sensibilité
11
ED Sains
31
Moyenne 90.0 75.0 84.4 85.0 72.7 79.8 83.8
Médiane 88.6 77.4 84.4 85.7 71.3 80.3 83.8
σ 9.4 6.3 7.2 6.7 9.6 4.6 4.3
Tableau 3-10 : valeurs moyennes et médianes des résultats des différentes analyses discriminantes
sur les groupes IM+TV et IM-TV pour les 7 tirages aléatoires du tableau 3-9. σ : écart type. ED :
efficacité diagnostique.
Les valeurs moyennes des valeurs de sensibilité et de spécificité sont relativement proches
des valeurs médianes pour les phases d'apprentissage ou de test, et les écarts types sont faibles
(<10%). Ce résultat démontre une certaine stabilité des performances de l'analyse discriminante
en fonction des populations utilisées.
Sur l'ensemble des sept analyses, le QRSf est apparut comme le plus pertinent. Sur cinq de
ces mêmes tirages, le LAS40 s'est avéré être le deuxième paramètre le plus pertinent mais à
chaque fois le pourcentage de bien classés a diminué. Le RMS40 apparaît comme le moins
pertinent des paramètres temporels.
3.2.5. Discussion des résultats
Le tableau 3-11 récapitule les principaux résultats de l'analyse de notre population d'étude
par la méthode conventionnelle, les courbes ROC et l'analyse discriminante. On note que
l'optimisation par les courbes ROC n'a finalement pas d'incidence directe sur la qualité
diagnostique globale puisque pour deux critères satisfaits sur trois, l'efficacité diagnostique reste
inchangée et égale à 73%. L'approche par courbe ROC implémentant notre stratégie de détection
du point optimal nous permet cependant d'obtenir une méthode plus sensible que la méthode
classique (+13.1%).
Les chiffres de sensibilité (69.5%) et spécificité (75%) obtenus avec la méthode
conventionnelle sont très proches des chiffres de sensibilité et de spécificité moyens relevés dans
la littérature (70% et 75% respectivement), validant ainsi à posteriori notre population d'étude.
L'AD fournit une méthode plus spécifique (+20%) et moins sensible (-8.7%) que la
méthode optimisée par les courbes ROC. Par rapport à la méthode conventionnelle, elle est à la
fois plus sensible (+12%) et plus spécifique (+4.4%). L'amélioration en termes d'efficacité
diagnostique est d'environ 10%. La méthode de classement multidimensionnelle s'avère
Chapitre 3
finalement être la plus pertinente. Cependant, cette méthode classe 16.2% des sujets sains
comme patients porteurs de PT.
Méthode Sensibilité Spécificité Efficacité
Diagnostique
Normaux
conventionnelle (2c/3) 69.5 75 73 100
optimisée par ROC (2c/3) 82.6 67.5 73 93.5
optimisée par AD 73.9 87.5 82.5 83.8
Tableau 3-11 : tableau récapitulant les résultats des différentes approches utilisées pour la
séparation des patients avec et sans TV sur la totalité de la population. La méthode conventionnelle
utilise les critères standard et la combinaison utilisée est deux critères satisfaits sur trois (2c/3). La
méthode optimisée par les courbes ROC utilise également deux critères satisfaits sur trois. Les résultats
de la dernière ligne sont ceux du troisième pas de l'AD lorsqu'elle est appliquée à toute la population
d'étude.
L'analyse des paramètres temporels en fonction de la topographie de l'infarctus a confirmé
les travaux de Simson, montrant qu'il n'y avait pas de différences significatives entre les valeurs
moyennes des paramètres QRSf, LAS40, RMS40 pour les localisations antérieures et inférieures
de l'infarctus. Nous verrons par la suite que des analyses plus fines telles que l'analyse temps-
fréquence permettront de nuancer ce résultat en mettant en évidence des différences de structures
des micro-potentiels en fonction de la localisation de l'infarctus.
3.3. Conclusion
La détection des PT dans le domaine temporel est réalisée par l'intermédiaire de trois
paramètres (RMS40, LAS40 et QRSf) caractérisant la partie terminale du QRS filtré de l'ECG-
HR. Le paramètre le plus pertinent et le plus fiable pour la caractérisation des patients avec des
PT est la durée de QRS filtré. Cette durée caractérise en effet de manière unique les patients en
post-infarctus avec TV. Le LAS40 et le RMS40 apparaissent comme des paramètres moins
discriminants et surtout moins reproductibles. Ils contribuent néanmoins de façon non
négligeable à la séparation des patients avec un risque de TV. Ces résultats vont dans le sens des
conclusions émises à partir des mesures de surface des courbes ROC.
Avec les paramètres temporels, on élabore des critères basés sur la détection de
franchissement de seuils permettant de séparer les patients avec risque de TV d'une population
constituée de patients en post-infarctus et de sujets sains. Cette méthode diagnostique donne, en
moyenne, un classement avec une sensibilité de 70% et une spécificité de 75%. Elle est plus
spécifique que sensible. La méthode de Simson présente néanmoins certains inconvénients : elle
Chapitre 3
est très dépendante du bruit, ne s'applique pas aux patients avec un bloc de branche et est limitée
à la portion terminale du complexe QRS.
Sur notre population d'étude, les résultats obtenus varient, en termes d'efficacité
diagnostique, entre 73% et 82.5% selon la méthode décisionnelle utilisée. L'optimisation des
critères par l'intermédiaire des courbes ROC n'a pas permis d'améliorer globalement les
performances de la méthode. En revanche, l'analyse discriminante s'est avérée plus pertinente en
apportant un gain de 9.5% en termes d'efficacité diagnostique. L'intérêt d'utiliser une méthode de
classement multidimensionnelle sur les paramètres temporels est ainsi clairement démontré.
Un autre résultat important est la mise en évidence de l'existence de sous-groupes dans nos
populations d'étude. L'analyse par coalescence démontre effectivement et tout particulièrement
sur le groupe de patients en post-infarctus avec TV, que la distribution des valeurs des
paramètres temporels n'a pas une configuration uni-modale et que ce groupe n'est pas homogène.
Finalement le filtrage classique comme l'utilise la méthode conventionnelle permet de
détecter les patients à risque de TV avec une efficacité limitée. Cette limitation de la méthode
conventionnelle a conduit les auteurs à aborder le problème de la détection des PT sous un
nouvel angle : l'analyse des composantes spectrales de ce signal.
Chapitre 3
[Lan 89] Lander P, Berbari EJ. Use of highpass filtering to detect late potentials in the
signal averaged ECG. J Electrocardiol. 225:7-12,1989.
[Har 1] Harris FJ, On the use of windows for harmonic analysis with the discrete
Fourier transform. Proc. IEEE 66:51-83,1978.
[Sim 81] Simson MB. Use of signals in the terminal QRS complex to identify patients
with ventricular tachycardia after myocardial infarction. Circulation. 1981;64:235-42.
[Car 89] Caref EB, Turrito G, Ibrahim BB, Henkin R, El-Sherif N. Role of the band-
pass filters in optimizing the value of the signal-averaged electrocardiogram as a predictor of
the result of programmed stimulation. Am J Cardiol 1989;64:16-26.
[Ver 89] Verzoni A, Romano S, Pozzoni L, Tarricone D, San Giorgo S, Croce L.
Prognostic significance and evolution of late ventricular potentials in the first year after the
myocardial infarction : prospective study. Pace 1989;12:41.
[Ste 92] Steinberg JS, Regan A, Sciacca RR, Bigger JT, Fleiss JL. Predicting
arrhythmic events after acute myocardial infarction using the signal averaged
electrocardiogram. Am J Cardiol 1992;69:13-21.
[Den 83] Denes P et al. Quantitative analysis of the high-frequency components of the
terminal portion of the body surface QRS in normal subjects and in patients with ventricular
tachycardia. Circulation 1983;;67:1129-37.
[Kac 87] Kacet S. Prévalence des potentiels tardifs dans les tachycardies
ventriculaires. Arch Mal Coeur 1987;9:1405-12.
[Gom 87] Gomes A. Optimal band pass filters for time domain analysis of the signal-
averaged elctrocardiogram. Am J Cardiol 1987;60: 1296-98.
[Ver 89] Verzoni A, Romano S, Pozzoni L, Tarricone D, San Giorgo S, Croce L.
Prognostic significance and evolution of late ventricular potentials in the first year after the
myocardial infarction : prospective study. Pace 1989;12:41.
Chapitre 3
[Ste 92] Steinberg JS, Regan A, Sciacca RR, Bigger JT, Fleiss JL. Predicting
arrhythmic events after acute myocardial infarction using the signal averaged
electrocardiogram. Am J Cardiol 1992;69:13-21.
[Hen 89] Henkin R, Caref EB, Kelen GJ, El-Sherif N. The signal-averaged
electrocardiograms and late potentials: A comparative analysis of commercial devices. J
Electrocardiol 1989:22(suppl I):19-24.
[Oef 86] oeff M, Von Leitner ER, Sthapit R, et al. Methods for non-invasive detection of
ventricular late potentials: a comparative multicenter study. Eur Heart J 1986;7:25-33.
[Ste 89] Steinberg JS, Bigger JT Jr. Importance of the end point of noise reduction in
analysis of the signal-averaged electrocardiogram. Am J Cardiol. 1989;63:556-60
[Bor 88] Borbola J, Denes P. Short and long-term reproducibility of the signal-
averaged electrocardiogram in coronary artery disease. Am J Cardiol 1988;61:1123-1124
[Sag 91] Sager PT, Widerhorn J, Pascual M, Leon C, Rahimtoola SH, Bhandari AK. A
prospective evaluation of the immediate reproducibility of the signal-averaged ECG. Am
Heart J 1991;121:1671-1678.
[Aga 95] Aganauskiene J, Sörnmo L, Atarius R, Blomström-Lundqvist C.
Reproducibility of the signal-averaged electrocardiogram using individual lead analysis. Eur
Heart J 1995 16,1244-1254
[Ata 95] Atarius R, Sörnmo L. Maximun likelihood analysis of cardiac late potentials.
IEEE Trans Biomed Eng (sous presse).
[Mal 92] Malik M, Kulakowski P, Staunton A, Odemuyiwa O, Farrell T, Camm AJ.
Frequency versus time-domain analysis of signal-averaged electrocardiograms. 1.
Reproducibility of the result. J Am Coll Cardiol 1992;20:127-134.
[Eng 93] Engel TR, Pierce DL, Murphy SP. Variation in late potentials and the
reproducibility of their measurement. Prog Cardio Disea XXXV,4:247-262, 1993.
Chapitre 3
[Vac 89] Vacek JL, Smith S, Dunn MI: Late potential parameter and noise level
variability caused by bandpass versus high-pass filtering ant type of signal averaging
equipment used. J electrophysiol 3:278-282,1989.
[Gom 89] Gomes JA, Winters SL, Martison M, Machac J, Stewart D, TargonskyA. The
prognostic significance of quantitative signal-averaged variables relative TO clinical
variables, site of myocardial infraction and ventricular premature beats : a prospective study.
J Am Coll Cardiol 1989;13:377.
[Bux 87] Buxton AE, Simson MB, Falcone RA, Marchlinski FE, Doherty JU, Josephson
ME. Results of signal-averaged electrocardiography and electrophysiologic study in patients
with non sustained ventricular tachycardia after healing of acute myocardial infarction. Am J
Cardiol 1987;60:80-85.
[Sve 92] Svensson O, Sörnmo L, Pahlm O. Influence of noise on the analysis of late
potentialsJ Electrocardiol. 25 (suppl):212:213,1992.
[Fre 91] Freedman RA, Steinberg JJ. Selective prolongation of the QRS late poentials
by sodium channel blocking antiarrhythmic drugs : relation TO slowing of ventricular
tachycardia. J Am Coll Cardiol 1991;17:1017-1025.
[Hoh 91] Hoher M, Axmann J, Weismuller P, Kocus M, Hombach V. Specific effects of
class I and III antiarrhythmic drugs on ventricular late potentials. Circulation 1991;84,4:II-
597a.
[Den 86] Denniss AR, Ross DL, Richards DA, Cody DV, Russel PA, Young AA, Uther
JB. Effect of antiarrhythmic therapy on delayed potentials detected by the signal-averaged
electrocardiogram in patients with ventricular tachycardia after acute myocardial infarction..
Am J Cardiol 1986;58:261-265
[Lac 90] Lacroix D, Savard P, Shenasa M, Kaltenbrunner W, Cardinal R, Pagé P, Joly
D, Derome D, Nadeau R. Spatial domain analysis of late potentials. Intraoperative and
thoracic correlations. Circ Res 1990;66:55-68.
Chapitre 3
[Hab 90] Haberl R, Schels HF, Steinbigher P, Jilge G, Steinbeck G. Top_resolution
frequency analysis of electrocardiogram with adaptative frequency determination.
Identification of late potentials in patients with coronary artery disease.Circulation 1990;
82:1183-1192.
[Lin 88] Lindsay BD, Markham J, Schechtman KB, Ambos HD, Cain ME. Identification
of patients xwith sustained ventricular tachycardia by frequency analysis of signal-averaged
electrocardiograms despite the presence of bundle branch bloc. Circulation 1988; 77:122-
130.
[Bre 91] Breithardt G et Al. Standards for analysis of ventricular late potentialsusing
high-resolution or signal-averaged electrocardiography. JACC 1991;17,5:999-1006.
[Fon 91] Fontaine JM, Rao R, Henkin R, Suneja R, Ursell SN, El-Sherif N. Study of the
influence of left bundle branch block on the signal-averaged electrocardiogram : a
quantitative and qualitative analysis. Am Heart J 1991;121:494-508.
[Kac 87] Kacet S, Dagano J, Lacroix D, Decoster H, Camier C, Lekieffre J. Results of
signal-averaged electrocardiogram in patients with complete right bundle branch block with
and without ventricular tachycardia (abstract). Pace 1987;10:605.
[Kac 87] Kacet S, Dagano J, Lacroix D, Decoster H, Camier C, Lekieffre J. Result of
signal averaged electrocardiogram in patient with complete right bundle branch block with
and without ventricular tachycardia (abstract). Pace 1987; 10:605.
[Kin 86] Kindwall KE, Auletto R, Falcone R, Simson MB. Abnormalities in the signal-
averaged electrocardiogram in patient with ventricular tachycardia and left bundle branch
block (abstract). J Am Coll Cardiol 1986; 7:103A.
[Edw 87] Edwardsson N, Lindblad A Hirsch I. Late potentials in patients with bundle
branch block with and without ventricular tachycardia/fibrillation (abstract). Pace
1987;10:1005.
Chapitre 3
[Buc 88] Buckingham TA, Thessen CC, Stevens L, Red RM, Kennedy HL. Effects of
conduction deffects on the signal-averaged electrocardiographic determination of late
potentials. Am j Cardiol 1988; 61:1265-1271.
[Bab 91] Babuty D, Beuillac JC, Cosnay P, Fauchier JP. Signal-averaged
electrocardiogramability to identify patients predisposed to ventricular tachycardia despite
bundle branch bloc (abstract). IX Colloque Européen de vectocardiographie et
d’électrocardiographie quantitative. Gent -6-7 december 1991.
[Wat 89] Watterlot P, Hammill S, Bailey K. The signal-averaged electrocardiogram
predicts arrhythmic events in patients with left bundle branch bloc (abstract). J Am Coll
Cardiol 1989; 13:190A.
[Har 75] Hartigan RJ. Clustering algorithms. 1975. New-York:Wiley.
[Deg 91] Degoulet P, Fieschi M. Traitement de l'information médicale, méthodes et
applications hospitalière, Masson (ed) Paris, 1991,124-128.