Un de nos équipements stockage ne répond plus. Il s'agit probablement d'une panne matérielle. Nous vous conseillons de ne pas redémarrer votre serveur si il ne répond plus et d'attendre la résolution de l'incident. Nos équipes sont sur place, nous vous tiendrons informés des suites de cet incident.

Update 11h38: il s'agit d'une tete de notre ancienne architecture de stockage. Un défaut de controleur disque a provoqué l'interruption du service. Nous procédons à la récupération du volume.

Update 12:12: Nous avons corrigé un bug kernel qui, en cas de défaut hard du controleur, nous permettra de débloquer plus rapidement la situation. Nous allons relancer le service dans quelques minutes.

Update 12h50: Nous avons relancé le service. Nous surveillons le controleur et nous procéderons à une coupure de moins d'une minute dans l'après midi pour une mise à jour.


Bonjour,

L'un de nos centres de données parisien a subit une coupure électrique partielle touchant certains de nos serveurs.

Si vous avez l'un de vos services Gandi impacté par cette coupure, merci de ne toucher à rien : nous nous occupons de rétablir celui-ci.

Veuillez accepter nos excuses pour la gêne occasionnée.



Du fait d'attaques DDoS contre des services hébergés sur notre réseau, sa qualité n'est pas stable.  Nous observons des pics de plus de 30Gb/s liés à cette attaque.  Nous tentons actuellement d'améliorer la situation mais la connectivité vers certains réseaux restera moins bonne pendant cette incident.

Nous vous remercions de votre compréhension et vous présentons nos excuses pour les problèmes induits par cet incident.


Depuis le 4 octobre, le prix des snapshots sur les disques de vos serveurs a été divisé par 2. En effet, un snapshot sur un disque consommait jusqu'alors 100% du quota du disque source, nous avons abaissé ce taux à 50% (et espérons pouvoir le baisser encore).

 

Concrètement, par exemple, pour effectuer un snapshot d'un disque de 10Go, vous devrez disposer de 5Go de quota libre sur votre compte.

 

Pour en savoir plus sur comment utiliser cette fonctionnalité, nous vous invitons à consulter notre aide en ligne.


Suite aux 2 derniers épisodes, nous allons procéder à une maintenance préventive d'urgence sur les autres équipements de stockage de la plateforme. Ne redemarrez pas vos serveurs pendant la maintenance, après 15/20 minutes de perte d'I/O, votre service reviendra automatiquement.

 

Veuillez, une nouvelle fois, bien vouloir accepter nos excuses pour la gêne occasionnée

 

19h30 maintenance terminée, merci de votre compréhension


Nous sommes (enfin!) accrédités pour le .CA, et donc désormais en droit de les gérer.


Le Registre canadien limite son extension nationale aux résidents canadiens (personnes physiques et morales) ainsi qu'aux détenteurs de marques enregistrées au Canada.

Dans le cas des marques déposées, le nom de domaine demandé doit correspondre exactement à la marque.

Pour consulter la grille de prix du .CA, c'est ici.


Le problème survenu hier sur l'une de nos unités de stockage est en train de se reproduire sur une autre unité depuis 15h45 (heure de Paris). Nous avions planifié d'appliquer le patch de correction sur toutes nos unités mais, l'urgence fait que nous allons procéder à une maintenance immédiate sur l'unité puis sur toutes les autres le plus rapidement possible.

 

Veuillez encore une fois bien vouloir accepter nos excuses pour la gene occasionnée

 

16:30 Le patch est installé, le filer est en cours de reboot

16:38 Le filer est redemarré, nous controlons les serveurs concernés

17:17 tout semble ok. Maintenance terminée.


Nous rencontrons actuellement un incident sur une unité de stockage sur la plateforme d'hébergement qui impacte un certain nombre de serveurs.  Nos équipes travaillent pour rétablir le service aussi vite que possible.  Nous ajouterons plus d'informations dès qu'elles seront disponibles.

 

A noter que pour les clients qui ne sont pas impactés, nous avons stoppé préventivement l'ensemble des opérations sur vos serveurs (creation, arrêt...)

 

Veuillez excuser la gêne occasionnée.

 

16h20 Nous cherchons toujours la cause du problème avant de relancer vos serveurs.

17h45 Nous n'avons malheureusement pas de nouvelles informations à vous communiquer. Toute notre équipe est mobilisée afin de déterminer au plus vite la source du problème.

18h00 La tentative de passer sur la tête de secours du filer n'a pas donné de résultat satisfaisant.

19h30 Nous avons 2/3 bonnes pistes et essayons d'appliquer les patchs Kernel adequat. Le problème se situe au niveau des écritures sur les disques. Le bug semble connu chez Sun mais pas vraiment la solution.

21h30 Toujours sur la même piste. Certains disques refonctionnent mais pas tous. Nous n'avons pas d'ETA à vous donner mais ça prendra encore plusieures heures au moins :(

21h50 On a bientôt un nouveau Kernel, on va tenter le reboot juste après.

00h00 On n'est pas loin du moment de vérité. Nous testons actuellement notre nouveau Kernel et l'appliquons sur un filer ZFS de test. On le passe ensuite sur le filer qui pose problème pour vérifier que ça corrige bien le problème.

01h00 Victoire ! (enfin j'espère) Le filer semble bien se comporter pour le moment. Nous redémarrons les serveurs que nous avions préventivement eteints et surveillons tout ça pendant encore un petit moment. Merci à tous pour votre patience et vos messages d'encouragement. Nous enverrons demain un rapport complet sur l'incident.


Les serveurs mails de gandi subissent actuellement une forte charge dû a plusieurs botnets en provenance d'Asie (principalement Inde et Vietnam) et d'Europe de l'Est.

De ce fait le nombre de connections est actuellement multiplié par 10. Le trafic est donc perturbé, nous n'avons pour le moment pas les moyens de faire face à ce type de trafic. Nos équipes travaillent actuellement à résoudre le problème.

Veuillez nous excuser pour la gêne occasionnée.

 

Mise à jour du 3 octobre 2011 à 16:30 CEST : Meme si la forte charge sur le service a beaucoup diminué à l'heure actuelle, nous laissons l'indicateur du service gandimail en orange pour le moment pendant que nous continuons de surveiller la plate-forme et que nous préparons une solution pereine et fiable dans les prochains jours.


Page   1 2 350 51 5259 60 61
Change the news ticker size