Tags:
create new tag
, view all tags

Réunion du 31/01/2023

Présents : Marianne B., Ana F., Gilles L., Giacomo M., Pierre O., Emmanuelle P., Alicia V., Patricia V.

Pierre

Passer le catalogue Subaru Hyper Suprime Cam en priorité - demande de Cécile

Voir https://hsc-release.mtk.nao.ac.jp/doc/index.php/database__pdr3/ pour voir quoi prendre... ? Il faut un compte pour accéder aux données (disponibles via FTP, CAS...) mais on peut voir la liste des tables dans le schema_browser ; par exemple pour le catalogue "summary" de la PDR3 qui contient ... 1449 colonnes !

Le HSC inclus différents champs :
Wide = spring and autumn equatorial stripes, Hectomap => 507 millions d'objets
Deep = XMM-LSS, E-COSMOS, ELAIS-N1, DEEP2-F3 + UltraDeep = SXDS, COSMOS => 19 millions d'objets

Voir dans la biblio qui utilise HSC quelles colonnes/données sont utilisées (et s'inspirer de DES DR2 ?) pour nous aider à faire une sélection. Exemples de papier ApJ qui utilisent le HSC-SSP ou HSC Deep : 2021ApJ...911...78O ; 2021ApJ...909..129S ; 2020ApJ...894...27T ; 2020ApJ...890..148U ou 2020ApJ...905..103X

Le papier qui décrit la PDR3 est : PASJ submitted

[Action Giacomo] : définir quelles données/colonnes récupérer...

Check table des nouveaux mots-clefs

Finalement, on ne prend pas "clump" :
- Définition confuse entre clumps (ISM) et red clump
- On retrouve facilement les catalogues de clump ISM en cherchant “clump” dans title ou bien title:clump AND keyword:submm dans catalogue collection

Pour LSR velocity, il n'y a pas vraiment de synonyme mais on peut utiliser "Space velocities" puisqu'il s'agit d'une mesure de vitesse dans un référentiel particulier.

[Action : Gilles & Alicia ] Mettre à jour. (Table du Twiki corrigée par Emmanuelle).

Emmanuelle pour F.-X.

Catalogues de plus de 10 millions de lignes

F.-X. ingère systématiquement les "grands catalogues" (qui sont passés par la procédure "grand cat") dans le service de X-match. Par contre, il peut passer à côté de certaines tables très grandes qui passent dans VizieR sans cette procédure...

On peut lui envoyer un mail lorsqu'on ingère des tables de plus de 10 millions de lignes (voir avec Gilles aussi pour tables >10 millions de lignes).

Il y a aussi un moyen pour récupérer la liste des tables de plus de 10 millions en interrogeant la table METAtab avec le champs "records" qui donne le nombre de ligne de la table, la contrainte dbaid>0 pour enlever les "grands cat" (= -1) et un champ "release" pour chercher les catalogues ingérés à partir d'une certaine date. Le résultat d'une requête pour une date >juin 2022 donne 18 catalogues.

Patricia

Compte question : erreur sur un ID PKS dans le Veron (VII/258) (Benoit Lott - IN2P3)

cf. Section history du ReadMe => nom d'objet modifié dans la table.

Compte question : une demande pour une table A&A >71 millions de lignes -- et 46 colonnes -- (sofie.bruun@nbi.ku.dk)

Patricia a demandé plus de précision sur le contenu de la table pour voir avec un astronome ensuite...

Follow-up : attention pour les documentalistes - vérifier les Wait de temps en temps

Visiblement il y a un problème avec certains messages lorsqu'un astronome met une référence en Wait : les documentalistes ne les recoivent pas...

Donc penser à aller voir directement sur l'outil les catalogues qui sont en Wait (indiquer "Wait" dans Search). Actuellement, il y en a 5.

Recommandation de Pierre : pour chaque commentaire de la part d’un astronome, envoyer un mail à la documentaliste référente.

Gilles

Modification de l'outil Follow-up pour Caroline

D'ailleurs, Gilles a fait quelques modif pour cet outil coté astronomes :
Ajout d'un checkbox “wait” pour enlever les catalogues bloqués de la liste à valider.

-- EmmanuellePerret - 2023-01-31

Topic revision: r1 - 2023-01-31 - EmmanuellePerret
 
This site is powered by the TWiki collaboration platform Powered by PerlCopyright © 2008-2024 by the contributing authors. All material on this collaboration platform is the property of the contributing authors.
Ideas, requests, problems regarding TWiki? Send feedback