next up previous contents
Next: Comparaison des simulations avec Up: Simulations, efficacité et acceptance Previous: Simulation Monte-carlo des cascades   Contents

Efficacité et acceptance

La détermination de l'acceptance du détecteur, de l'efficacité des coupures, du temps mort d'acquisition et des critères de sélection de données est essentielle pour obtenir des flux quantitatifs et des variations correctement étalonnées à partir des données enregistrées. C'est une procédure indispensable de déconvolution des effets instrumentaux.

Figure 8.1: Surface effective de détection en fonction de l'énergie pour différents angles zénithaux. Les lignes représentent la fonction analytique ajustée et les points les valeurs exactes venant de la simulation.
\begin{figure}\begin{displaymath}
\epsfxsize =12cm
\epsfysize =8cm
\epsfbox{ps/acc_these.eps}\end{displaymath}\par\end{figure}

L'acceptance est l'intégrale de l'efficacité de détection $P(d_{imp})$ dans un plan perpendiculaire à la direction de visée du télescope:

\begin{displaymath}A_{\gamma}=\int_0^{\infty}2\pi d_{imp} P(d_{imp}) d(d_{imp})\end{displaymath}

On peut l'estimer grâce aux simulations en évaluant la proportion de gerbes électromagnétiques générées qui déclenchent l'instrument:

\begin{displaymath}A_{\gamma}\approx \pi d_{imp}^{max~2} \frac{N_{d\'ecl}}{N_{g\'en\'er\'e}}\end{displaymath}

$d_{imp}^{max}$ est le paramètre d'impact maximum simulé (qui doit être suffisamment grand pour ne pas biaiser le résultat), $N_{g\'en\'er\'e}$ est le nombre d'événements générés par Monte-Carlo et $N_{d\'ecl}$ le nombre d'événements satisfaisant la condition de coïncidence majoritaire. Pour utiliser cette approximation, les gerbes doivent être tirées avec des paramètres d'impact choisis aléatoirement dans un disque de rayon $d_{imp}^{max}$. Cette grandeur dépend fortement de l'angle zénithal d'observation et doit donc être étudiée pour plusieurs valeurs de celui-ci.

L'acceptance a été ainsi calculée pour des photons gamma de 0.05, 0.10, 0.20, 0.30, 0.40, 0.60, 1.0, 2.0, 4.0, 8.0 et 15.0 TeV à 0, 30, 45 et 60 degrés du zénith. Le nombre d'événements générés doit être plus important à faible énergie ($\approx$ 100000 gerbes) pour compenser la grande perte de statistique dûe au déclenchement et le paramètre d'impact maximum doit augmenter avec l'énergie et l'angle zénithal (jusqu'à $d_{imp}^{max}\approx 600$ mètres pour des gammas de 15 TeV à $30^0$ de site).

Les résultats obtenus permettent une paramétrisation analytique de la fonction d'acceptance:


\begin{displaymath}A_{\gamma}(E_{GeV},\theta)\approx10^4C_1(cos\theta)^{C_2}\lef...
...^{C_6}}\right)^{C_7}}\right) e^{-\frac{E_{GeV}}{C_8}}~{\rm m}^2\end{displaymath}

$E_{GeV}$ est l'énergie du gamma en GeV, $\theta$ l'angle zénithal et les $C_i$ des constantes fixées par ajustement à:

Constantes $C_1$ $C_2$ $C_3$ $C_4$ $C_5$ $C_6$ $C_7$ $C_8$
Valeurs 1.7239 -1.9823 1.4263 $-7.6938\times 10^{-3}$ 0.2341 -3.4702 4.6552 55055


La fonction ainsi déterminée permet de connaître une surface effective pour chaque événement, une fonction de l'angle de pointé et de l'énergie reconstruite. Le figure 8.1 présente la forme de $A_{\gamma}(E_{GeV},\theta)$. Il apparaît nettement qu'à faible énergie, l'acceptance est plus importante près du zénith, par effet de seuil, tandis qu'à haute énergie, elle devient plus grande à petit angle de site, par effet géométrique d'augmentation de surface. On peut également noter que le terme multiplicatif $e^{-\frac{E_{GeV}}{C_8}}$ présent dans la formule analytique induit une légère baisse d'acceptance au-delà d'une dizaine de TeV: c'est la conséquence des images qui commencent à sortir de la zone de déclenchement de la caméra.

En multipliant l'acceptance par le flux d'une source, on obtient un taux de déclenchement différentiel. Ce nombre d'événements par seconde et par TeV est représenté à la figure 8.2 pour le flux supposé de la nébuleuse du Crabe. Bien que la définition demeure très arbitraire, on peut évaluer le seuil du détecteur par le maximum de chacune des courbes ainsi représentées. Il varie entre 250 et 350 GeV pour un angle zénithal d'observation inférieur à 30$^0$.

Figure 8.2: Multiplication de la surface de détection par le flux différentiel de la Nébuleuse du Crabe en fonction de l'énergie pour différents angles zénithaux.
\begin{figure}\begin{displaymath}
\epsfxsize =12cm
\epsfysize =8cm
\epsfbox{ps/accspec_these.eps}\end{displaymath}\par\end{figure}

L'efficacité de reconstruction est une autre grandeur dont la connaissance est essentielle pour estimer et corriger l'effet des coupures appliquées dans l'analyse. La méthode développée pour exploiter les données de CAT reposant principalement sur une unique variable ($P(\chi^2)$), l'évaluation de cette efficacité se trouve grandement simplifiée. C'est bien-sûr une fonction de l'énergie, c'est-à-dire de l'une des valeurs physiques à estimer. La figure 8.3 présente la fraction des événements gammas simulés conservés par les coupures suivantes:

$Q_{tot}$ est la charge totale des pixels contenus dans l'image. Ces choix de coupures ne sont pas systématiquement appliqués et peuvent être légèrement modifiés en fonction de la spécificité de l'analyse en cours. La fonction d'efficacité est alors simplement réévaluée en conséquence. La baisse qui apparaît à très haute énergie vient de ce que le modèle représente moins bien l'image réelle. Sous le pic du signal, dans l'histogramme des valeurs de l'angle de pointé $\alpha $, le facteur de réjection hadronique est de l'ordre de 150.

Figure 8.3: Part des gammas simulés conservés par les coupures standard en fonction de l'énergie.
\begin{figure}\par\epsfxsize =8cm
\begin{displaymath}
\epsfbox{ps/efficacite_ener.eps}\end{displaymath}\par\end{figure}

Le temps mort d'acquisition doit être connu pour évaluer correctement le flux de la source étudiée. La figure 8.4 montre la distribution poissonnienne des intervalles de temps entre deux événements successifs enregistrés. Le temps mort de conversion apparaît au début de l'histogramme. Pour évaluer précisément le nombre total d'événements qui auraient du être acquis à partir du nombre effectivement obtenu, on procède d'abord à un ajustement de fonction exponentielle (de constante $\lambda$) sur la distribution. La correction s'écrit:

\begin{displaymath}N_{vrai}=N_{acquis}\frac{1-e^{-\lambda t}}{e^{-1.1\lambda t_1}-e^{-\lambda
t}}\times\frac{1}{1-\sum_i f_i t_i}\end{displaymath}

où les $f_i$ et $t_i$ sont les fréquences et durées des processus indépendants de l'arrivée des événements (hautes tensions, échelles...), $t_1$ est le temps mort de 5.5 ms (pour 546 photomultiplicateurs) et le facteur 1.1 provient de la présence d'un événement logiciel tous les 10 événements réels. Dans la pratique, les buffers permettent de rendre nuls les effets de lecture autres que ceux des ADC. La formule se simplifie donc en:

\begin{displaymath}N_{vrai}=N_{acquis}\frac{1-e^{-\lambda t}}{e^{-1.1\lambda t_1}-e^{-\lambda
t}}\end{displaymath}

Le nombre moyen d'événements ainsi perdu, de l'ordre de 7%, est évalué et corrigé pour chaque acquisition.

Figure 8.4: Distribution des intervalles de temps en $\mu s$ séparant deux événements enregistrés.
\begin{figure}\begin{displaymath}
\epsfxsize =10cm
\epsfysize =5.5cm
\epsfbox{ps/tempsreel.eps}\end{displaymath}\par\end{figure}


next up previous contents
Next: Comparaison des simulations avec Up: Simulations, efficacité et acceptance Previous: Simulation Monte-carlo des cascades   Contents
Aurelien Barrau 2004-07-01