Informatique ACRI-IN
L’infrastructure du groupe ACRI permet à l’ensemble de l’équipe d’ACRI-IN de
bénéficier d’une technologie de pointe et d’une puissance de calcul
extrêmement confortable pour réaliser ses études de projet, mettre en œuvre
ses modèles numériques complexes, et travailler avec une souplesse inégalée
(bureau distant, transfert de données sécurisé, zones de stockage et de
travail communes…).
Notre infrastructure informatique permet de garantir à nos clients la
sécurité et la confidentialité des données relatives aux projets qu’ils nous
ont confiés.
-
RESEAU
-
SERVEURS
-
STOCKAGE
-
SECURITE
-
MATERIELS
-
CLUSTERS
-
Le réseau ACRI se compose de plusieurs réseaux
locaux virtuels (VLAN) et de zone démilitarisée
(DMZ) reliés par un backbone composée de deux
switches 10 Gbits Fibre optique configurés en
haute disponibilité. Chaque périphérique réseau
est connecté à ce backbone via des switches
gigabit. Cette structure permet de connecter des
sites extérieurs en tant que VLAN
supplémentaires. Les utilisateurs invités sont
connectés sur un VLAN spécifique sécurisé ayant
uniquement accès à internet.
Les sites ACRI sont reliés par des connexions
MPLS (Brest, Toulouse, Cannet des Maures,
Mougins) ;
-
Nos serveurs sont principalement basées sur des
systèmes Linux Debian (physiques et virtuels)
connectés à des serveurs de fichiers sécurisés
(DELL / EMC) grâce à une connexion 10 Gbit
Ethernet. La plupart des serveurs sont
polyvalents et peuvent être utilisés par
n’importe quel ingénieur ACRI. Des serveurs
virtuels additionnels peuvent être rapidement
mis en place si nécessaire (OS spécifique ou
environnements de travail, développement,
production)
La ferme virtuelle ACRI est gérée par VMWARE.
Nous possédons 6 nœuds physiques dédiés à notre
cluster VMWARE.
-
50 To d'espace disque partagé sécurisé sont
disponibles sur notre infrastructure
d’entreprise pour les projets. Cet espace est
sauvegardé grâce à une bibliothèque de 120 To
Quantum LTO5 (3 lecteurs).
Plus de 300 To d’espace disque sont également
disponible pour stocker les données
satellitaires (MERIS, MODIS, SeaWIFS, NOAA,
etc.) ainsi que les fichiers auxiliaires.
-
Les communications internet sont basées sur une
ligne 100 Mbit/s SDSL. Le pare-feu est constitué
d'un cluster appliances Checkpoint. Les serveurs
requérant une connexion externe sont déployés
dans une DMZ.
La sécurité interne est assurée par le logiciel
Sophos Internet Security.
Chaque utilisateur du groupe ACRI dispose d’un
jeu utilisateur/mot de passe unique utilisé pour
toute authentification. Une personne
physiquement connectée mais sans utilisateur/mot
de passe ne sera pas en mesure d'accéder aux
données du réseau du groupe ACRI.
-
Les ingénieurs du groupe ACRI travaillent sur
des PC quad-core avec 8Go de RAM (Windows 7)
connecté aux serveurs Linux via une connexion
Gigabit Ethernet. VMWARE Player permet à chaque
ingénieur de tester des versions locales
virtuelles de n’importe quel système requis par
les projets en cours (par exemple : Ubuntu,
Debian, CentOS…).
Plusieurs services permettent aux ingénieurs qui
travaillent à l'extérieur de l'entreprise
d'accéder facilement à leur environnement
habituel: VPN, Terminal Services (TSE),
connexion RDP à leur ordinateur de bureau.
L'échange d'informations entre les différents
projets du groupe ACRI est rendue plus facile
grâce à un ensemble de logiciels Microsoft
(Exchange/Outlook (mails et
calendriers)/SharePoint (outils
collaboratifs)/Office (documentations et
présentations...).
-
La production ACRI est basée sur un cluster
utilisant un matériel puissant et un système
propriétaire de gestion de cluster appelé
Pégasus. Principales caractéristiques : cluster
hétérogène (SunOS, Linux, Unix, Windows/cygwin,
SGI…), toutes les données, actions, et
informations des nœuds sont stockées dans un
SGBD, Les requêtes et files d’attentes de
processus sont stockées et pilotées par ce
système, l’équilibrage des hôtes et des disques
de sortie est effectué automatiquement, les
anomalies classiques sont automatiquement
détectées, des mesures correctives sont
appliquées et les jobs sont de nouveau soumis au
cluster.
Aujourd'hui, 25 nœuds sont mis en œuvre dans le
cluster de calcul. La capacité de stockage a
atteint 400 To de données en ligne.