OVH Community, votre nouvel espace communautaire.

vrack


redbeard
20/04/2016, 14h43
Bonjour,

est-ce qu'une date de mise en prod est fixée ?

FWmaster
01/04/2016, 10h25
Citation Envoyé par gambiit
Bonjour,
Tout ça marche vraiment bien.
Le déploiement définitif est une question de jour...bravo pour le job!
C'était donc une question de jours... il y a exactement 31 jours.
Si ça sort aujourd'hui sur le manager j'aurais du mal à y croire, mais demain ça serait une bonne surprise ^^

hedii
30/03/2016, 14h15
Des news ?
PS: il y a pas mal de messages qui ne s'affichent pas dans cette discussion

trompx
22/03/2016, 15h30
Bonjour Maxime,

Il semblerait que le forum ait quelques problèmes, j'ai posté 2 messages ici mais ils n'apparaissent pas..

Je voulais faire quelques tests en prévision de la sortie du vrack mais il n'est pas possible de commander des ips flottantes (failover) pour des vps ssd. Serait il possible de les activer en bêta ? Apparemment la bêta du vrack dont gambiit parle ne s'applique que sur des machines sur le datacenter de strasbourg et que de type cloud (CPU/RAM).

Merci d'avance pour les infos.

Cordialement,

Xavier

trompx
22/03/2016, 01h08
Merci gambiit, moi aussi je réponds tardivement mais c'est bon, problème résolu ici https://forum.ovh.com/showthread.php...461#post665461

trompx
21/03/2016, 15h15
Bonjour gambiit,

Moi aussi je réponds un peu tard désolé, mais en effet j'ai bien un problème de résolution d'hôte..
J'avais créé une autre discussion car ça commençait à être un peu trop off-topic du vrack.

Le dig donne :
;; Got bad packet: bad label type
103 bytes
7a 75 85 a0 00 01 00 04 00 00 00 01 04 61 75 74 zu...........aut
68 05 63 6c 6f 75 64 03 6f 76 68 03 6e 65 74 00 h.cloud.ovh.net.
00 01 00 01 c0 0c 00 01 00 01 00 00 0e 10 00 04 ................
7f 2a 00 07 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 08 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 00 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 01 4a 8f 81 .*..J..

Comme je l'ai mis sur l'autre topic je n'ai ce problème que sur ma VM Vagrant, je vais creuser pour voir pourquoi ça ne resolve pas.

Merci en tout cas du coup de main !

Xavier

gambiit
15/03/2016, 09h08
Réponse un peu tardive : peut-être as-tu résolu ton problème?
En tout cas, je pense que tu as un problème de résolution du domaine auth.cloud.ovh.net
Que donne dig auth.cloud.ovh.net?

Bah, on t'a déjà donné la même piste dans un autre topic.

trompx
06/03/2016, 11h28
Merci gambiit pour ce complément d'information. Oui comme ça ne passait pas au début (j'ai sourcé directement le openrc.sh dans mon bashrc), j'ai testé directement la CURL request avec les variables hardcodées qui ne passait toujours pas..
Arrives tu à obtenir un token ?
En voyant que je commençais à avoir des erreur sur mon manager V6, je me suis dis que certains de leurs services devaient être down et que ça venait de là.
J'utilise aussi docker mais pas sur mon ansible box depuis laquelle je provisionne mes autres VM/VPS.

Edit : avec --debug
Code:
DEBUG (extension:157) found extension EntryPoint.parse('v2token = keystoneauth1.loading._plugins.identity.v2:Token')
DEBUG (extension:157) found extension EntryPoint.parse('admin_token = keystoneauth1.loading._plugins.admin_token:AdminToken')
DEBUG (extension:157) found extension EntryPoint.parse('v3oidcauthcode = keystoneauth1.loading._plugins.identity.v3:OpenIDConnectAuthorizationCode')
DEBUG (extension:157) found extension EntryPoint.parse('v2password = keystoneauth1.loading._plugins.identity.v2:Password')
DEBUG (extension:157) found extension EntryPoint.parse('v3password = keystoneauth1.loading._plugins.identity.v3:Password')
DEBUG (extension:157) found extension EntryPoint.parse('v3oidcpassword = keystoneauth1.loading._plugins.identity.v3:OpenIDConnectPassword')
DEBUG (extension:157) found extension EntryPoint.parse('token = keystoneauth1.loading._plugins.identity.generic:Token')
DEBUG (extension:157) found extension EntryPoint.parse('v3token = keystoneauth1.loading._plugins.identity.v3:Token')
DEBUG (extension:157) found extension EntryPoint.parse('password = keystoneauth1.loading._plugins.identity.generic:Password')
DEBUG (session:248) REQ: curl -g -i -X GET https://auth.cloud.ovh.net/v2.0 -H "Accept: application/json" -H "User-Agent: keystoneauth1/2.3.0 python-requests/2.9.1 CPython/2.7.6"
INFO (connectionpool:758) Starting new HTTPS connection (1): auth.cloud.ovh.net
WARNING (base:122) Discovering versions from the identity service failed when creating the password plugin. Attempting to determine version from URL.
DEBUG (v2:63) Making authentication request to https://auth.cloud.ovh.net/v2.0/tokens
INFO (connectionpool:758) Starting new HTTPS connection (2): auth.cloud.ovh.net
DEBUG (shell:1082) Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
Traceback (most recent call last):
  File "/usr/local/lib/python2.7/dist-packages/novaclient/shell.py", line 1080, in main
    OpenStackComputeShell().main(argv)
  File "/usr/local/lib/python2.7/dist-packages/novaclient/shell.py", line 914, in main
    api_version = api_versions.discover_version(self.cs, api_version)
  File "/usr/local/lib/python2.7/dist-packages/novaclient/api_versions.py", line 267, in discover_version
    client)
  File "/usr/local/lib/python2.7/dist-packages/novaclient/api_versions.py", line 248, in _get_server_version_range
    version = client.versions.get_current()
  File "/usr/local/lib/python2.7/dist-packages/novaclient/v2/versions.py", line 84, in get_current
    return self._get_current()
  File "/usr/local/lib/python2.7/dist-packages/novaclient/v2/versions.py", line 56, in _get_current
    url = "%s" % self.api.client.get_endpoint()
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/adapter.py", line 132, in get_endpoint
    return self.session.get_endpoint(auth or self.auth, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 661, in get_endpoint
    return auth.get_endpoint(self, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/base.py", line 210, in get_endpoint
    service_catalog = self.get_access(session).service_catalog
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/base.py", line 136, in get_access
    self.auth_ref = self.get_auth_ref(session)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/generic/base.py", line 181, in get_auth_ref
    return self._plugin.get_auth_ref(session, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/v2.py", line 65, in get_auth_ref
    authenticated=False, log=False)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 572, in post
    return self.request(url, 'POST', **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/positional/__init__.py", line 94, in inner
    return func(*args, **kwargs)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 452, in request
    resp = send(**kwargs)
  File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 496, in _send_request
    raise exceptions.ConnectFailure(msg)
ConnectFailure: Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
ERROR (ConnectFailure): Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
Merci beaucoup en tout cas !

gambiit
05/03/2016, 13h04
Citation Envoyé par trompx
Merci beaucoup pour ces précieuses informations Gambiit !
curl: (7) Failed to connect to auth.cloud.ovh.net port 443: Connection refused
Pourtant vérifié plusieurs fois mes username/password/tenant, tout est bon mais ça passe pas...
T'as pas de chance, ils ont oublié de payer la facture d'électricité : tout est en vrack...en vrac, pardon.
Dans l'ordre des choses :
  1. récupérer le script openrc.sh dans l'interface horizon.
  2. source openrc.sh dans ta console qui va bien et renseigne le mdp
  3. vérifie tes variables d'environnement avec env | grep ^OS

Le client nova s'occupe de l'authentification des l'instant ou les variables d'environnement sont bien renseignées.
Si tes problèmes persistent, il se peut que tu ais un bug TLS avec ton python. Pour vérifier, tu peux utiliser le préfixe --debug à toutes tes commandes pour les rendre verbeuses.
Personnellement, j'utilise des containers docker et/ou des virtualenv python pour retrouver l'environnement adéquat à chacun de mes projets. Exemple :
Code:
FROM debian:latest
MAINTAINER Gambiit <>

RUN useradd -ms /bin/bash admin
RUN sed -i s/\#force_color_prompt/force_color_prompt/ /home/admin/.bashrc
RUN sed -i s/\#alias/alias/ /home/admin/.bashrc

ADD ./openrc.SBG1.sh /home/admin/openrc.sh

RUN apt-get update && \
    DEBIAN_FRONTEND=noninteractive \
    apt-get -yq install \
        python-glanceclient \
        python-novaclient  \
        python-cinderclient \
        python-swiftclient \
        python-neutronclient \
        curl

USER admin
WORKDIR /home/admin

ENTRYPOINT /bin/bash
Bon courage!

trompx
04/03/2016, 23h17
Merci beaucoup pour ces précieuses informations Gambiit !
Je ne m'étais pas intéressé jusque là à openstack donc je me suis plongé dedans, mais je n'arrive pas vraiment à tester la bête. Dès la tentative de récupération d'un token en suivant le tuto ici https://www.ovh.com/fr/publiccloud/g...ion_des_tokens, j'ai une erreur de type :
curl: (7) Failed to connect to auth.cloud.ovh.net port 443: Connection refused
Pourtant vérifié plusieurs fois mes username/password/tenant, tout est bon mais ça passe pas...

En testant simplement "nova image-list" j'ai :
No handlers could be found for logger "keystoneauth.identity.generic.base"
ERROR (ConnectFailure): Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
Et ce avec la version 2.3.2 et 2.0.0 de keystone.

gambiit
03/03/2016, 17h06
Citation Envoyé par trompx
Je suis allé faire un tour sur le manager mais toujours Vrack (soon).
Oui c'est toujours du bêta mais tu peux peut-être y participer en faisant une demande explicite sur la mailing list cloud.
Citation Envoyé par trompx
Quelqu'un aurait-il des infos sur la procédure pour la configuration des interfaces : à la création de la machine y aura t-il une option pour spécifier une ip locale et une option pour supprimer l'ip publique ?
Pour l'instant, il n'y a pas rien sur le manager V6. Mais une fois le vrack activé par l'équipe du RUNa, un réseau supplémentaire apparait dans ton interface Horizon. Avec l'API openstack, ça donne ça:
Code:

admin@827f3419147a:~$ neutron net-list
+--------------------------------------+---------+-------------------------------------------------------+
| id                                   | name    | subnets                                               |
+--------------------------------------+---------+-------------------------------------------------------+
| XXXXXX-32cd-4680-bf04-8204bb892fd0 | icecast | XXXXXX-0211-46ef-ac3c-3a3932b809fe 192.168.0.0/16   |
| XXXXXX-4a46-4672-aade-5654d1fc0704 | Ext-Net | XXXXXX-65e9-4921-8943-8aa72a744a16 167.114.224.0/19 |
+--------------------------------------+---------+-------------------------------------------------------+
Citation Envoyé par trompx
Gambit as tu scripté l'install de l'interface additionnelle (ansible / bash script) ?
Tu es obligé de booter avec l'ip publique sur eth0 pour cloud-init. Tu installes ta deuxième interface en eth1. On peut faire un bout de script bash par exemple postinstall.sh pour une debian/ubuntu :
Code:
admin@827f3419147a:~$ cat postinstall.sh 
#!/bin/bash

MACHINEIP='192.168.0.2'
MASK='255.255.255.0'
BROADCAST='192.168.0.254'

#update du système
DEBIAN_FRONTEND=noninteractive apt-get update -q
# DEBIAN_FRONTEND=noninteractive apt-get -yq upgrade

# un prompt en couleur
sed -i s/\#force_color_prompt/force_color_prompt/ /home/admin/.bashrc

# génération des bonnes locales
localedef -i fr_FR -f UTF-8 fr_FR.UTF-8
# placement de la timezone
cp /usr/share/zoneinfo/Europe/Paris /etc/localtime

echo -e "auto eth1" 			>> /etc/network/interfaces
echo -e "iface eth1 inet static" 	>> /etc/network/interfaces
echo -e "  address $MACHINEIP" 		>> /etc/network/interfaces
echo -e "  netmask $MASK" 		>> /etc/network/interfaces
echo -e "  broadcast $BROADCAST"	>> /etc/network/interfaces

ifup eth1
# route add -net 192.168.0.0 netmask 255.255.255.0 eth1
echo "configuration de la table de routage"
route -n
echo 0;
Pour lancer une instance avec le client nova par exemple
Code:
nova boot --key_name maclef --flavor vps-ssd-1 --image 'Ubuntu 14.04' --nic net-id=XXXXXXXX-4a46-4672-aade-5654d1fc0704 --nic net-id=XXXXXXXX-32cd-4680-bf04-8204bb892fd0,v4-fixed-ip='192.168.0.2' --user-data postinstall.sh testvrack2
La même chose peut se faire avec Horizon. Et bien sur déployer avec ansible.
Citation Envoyé par trompx
Question additionnelle : sur digitalocean, le fait de setup des droplets avec private ip ne suffit pas pour sécuriser l'échange des données entre droplets car d'autres utilisateurs ont accès au même network. Le vrack implémente t-il déjà la sécurité nécessaire à la sécurisation des échanges entre les différents VPS où doit on toujours mettre en place un VPN avec tinc par exemple ?
Merci d'avance
Non : tu es seul sur ton vrack. Tu peux même passer l'interface en mode --promiscous, tu n'entends que tes propres machines. À priori, tu peux faire plusieurs subnet dans un même vrack. Cela dépendra des quotas qui te seront attribués.

Pour l'instant un vrack est confiné à un DC. L'étape suivante : le multiDC

trompx
02/03/2016, 19h14
Merci pour l'info gambiit
Je suis allé faire un tour sur le manager mais toujours Vrack (soon).
Quelqu'un aurait-il des infos sur la procédure pour la configuration des interfaces : à la création de la machine y aura t-il une option pour spécifier une ip locale et une option pour supprimer l'ip publique ?
Gambit as tu scripté l'install de l'interface additionnelle (ansible / bash script) ?

Question additionnelle : sur digitalocean, le fait de setup des droplets avec private ip ne suffit pas pour sécuriser l'échange des données entre droplets car d'autres utilisateurs ont accès au même network. Le vrack implémente t-il déjà la sécurité nécessaire à la sécurisation des échanges entre les différents VPS où doit on toujours mettre en place un VPN avec tinc par exemple ?

Merci d'avance

gambiit
01/03/2016, 17h03
Bonjour,

les vrack sont dispo en béta depuis vendredi dernier
Pour l'instant le manager V6 n'est pas finalisé. Mais c'est fonctionnel avec l'api openstack/ovh.
Faut monter à la main l'interface additionnelle dans les instances et le routage. On peut le faire sur une instance existante ou au boot.
Tout ça marche vraiment bien.
Le déploiement définitif est une question de jour...bravo pour le job!

janus57
18/02/2016, 18h22
Bonjour,

d'après twitter 10jours, et pour rester un peu plus "large" on peu dire 2-3semaine.

Cordialement, janus57

FWmaster
18/02/2016, 17h00
Des news du vrack ?

trompx
20/01/2016, 22h49
Bonjour Maxime,

Merci beaucoup pour les nouvelles, j'attends la dispo du vrack avec impatience. Finalisez bien, je serai prêt à tester day one.

MaximeHurtrel
12/01/2016, 00h13
On continue a itérer https://pbs.twimg.com/media/CYeDmqZWwAQg2bV.png:large

MaximeHurtrel
08/01/2016, 20h57
Bonjour à tous !

Un premier test (interne) sur des machines en production devrai avoir lieu la semaine prochaine si tout va bien.
Nous avons parallélisé la conception de l'expérience utilisateur pour vous proposer la feature au plus vite dès qu'elle sera fonctionnelle et stable.

Voici un extrait de nos premières maquettes :
http://demo.ovh.eu/fr/0264ac377e8b16ec638e8b6a9507d7f6/

Le wording va changer mais comme indiqué précédemment sur la ML :

- Vous pourrez associer un VRACK par projet public cloud (plusieurs projets par VRACK, avec également des SD ou dedicated cloud dans le même réseau)
- Une fois associé, vous pourrez créer de multiples VLAN via l'API OVH ou OpenStack
- Vous pourrez de la meme façon, lier vos machines à un ou plusieurs VLANs (si le vlan ID est le meme aue celui que vous choisissez de configurer dans votre SD, bienvenue au cloud hybride !)
- Les VLANs seront bien multi Datacenter (même si il est possible que les liens ne soient pas fonctionnels lors du lancement)
- Si votre VLAN ne contient que des machines au sein d'un même projet public cloud, vous pourrez même bénéficier du DHCP aaS d'OpenStack pour ne pas avoir à gérer l'adressage de vos VMS

Comme toujours vos feedbacks sont les bienvenus !

Maxime

redbeard
06/01/2016, 13h06
Ok super nouvelle ! Merci

MaximeHurtrel
24/12/2015, 17h59
Hello

Un PoC fonctionnel ets en place sur notre infra de test, on paufine une premiere version de production pour fin Janvier. La première version ne supportera pas le traffic entre différentes régions, mais cela viendra très vite ensuite.

Bonnes fêtes à tous !

redbeard
23/12/2015, 18h12
Maxime des nouvelles pour le vrack ?

Merci

MaximeHurtrel
20/11/2015, 14h07
Bonjour Gamblit

Peux-tu créer un thread dédié sur le forum ? J,y renverrai mes collègues en charge de la documentation (pour information un gros chantier a été démarré pour permettre de rendre la documentation plus interactive à l'avenir). Merci d,avance pour tes retours !

gambiit
19/11/2015, 23h06
Merci Maxime. Je n'ai pas encore fait le tour des groupes de sécurité. Je vais tester ça.

A propos de swift et object storage, il y a quelques erreurs sur les documentations, à ce qu'il me semble. Où peut-on le signaler?

MaximeHurtrel
19/11/2015, 01h17
Hello Gambit et désolé pour le délai. Notre R et D est en cours sur les réseaux privés, qui seront bien utilisable via Openstacl et integrable au vrack OVH. Un PoC fonctionnel devrait etre disponible dans quelques semaines, mais la mise a disposition s'oriente vers tout début 2016 d'après les derniers éléments dont je dispose. Bonne nouvelle : nous serons directement intégrés au vrack OVH 3.0 qui ouvre la porte a de nouvelles fonctionnalités.

L,équipe va mettre à jour l'indication en fonction. Note qu'en attendant tu peux bien sûr isoler tes machines via un firewall logiciel, mais je te confirme que cette feature d'isolation réseau sera disponible gratuitement pour les clients Cloud dans quelques semaines.

gambiit
17/11/2015, 11h56
Oui da, j'ai peut-être pas été très clair dans ma question. Pour l'instant, dans le public cloud, on ne peut que booter des instances ayant des ip publiques. Mais on ne peut pas les relier dans un vrack privé. Ce qui limite, je pense, l'intérêt immédiat du truc. On a pas forcément envie d'exposer certains services entre instances.
Sur le manager, il apparait une bulle comme quoi cette fonctionnalité devrait être dispo au second semestre 2015. Le semestre est bien avancé. Je souhaitais savoir si maxime hurtrel pouvait nous donner des infos.
Merci par avance.

gambiit
16/11/2015, 14h41
Bonjour,

Concernant les vracks, as-t-on une timeline plus précise que dispo au 2e semestre 2015.

Merci par avance