vrack
redbeard
20/04/2016, 13h43
Bonjour,
est-ce qu'une date de mise en prod est fixée ?
FWmaster
01/04/2016, 09h25

Envoyé par
gambiit
Bonjour,
Tout ça marche vraiment bien.
Le déploiement définitif est une question de jour...bravo pour le job!
C'était donc une question de jours... il y a exactement 31 jours.
Si ça sort aujourd'hui sur le manager j'aurais du mal à y croire, mais demain ça serait une bonne surprise ^^
Des news ?
PS: il y a pas mal de messages qui ne s'affichent pas dans cette discussion
Bonjour Maxime,
Il semblerait que le forum ait quelques problèmes, j'ai posté 2 messages ici mais ils n'apparaissent pas..
Je voulais faire quelques tests en prévision de la sortie du vrack mais il n'est pas possible de commander des ips flottantes (failover) pour des vps ssd. Serait il possible de les activer en bêta ? Apparemment la bêta du vrack dont gambiit parle ne s'applique que sur des machines sur le datacenter de strasbourg et que de type cloud (CPU/RAM).
Merci d'avance pour les infos.
Cordialement,
Xavier
Merci gambiit, moi aussi je réponds tardivement mais c'est bon, problème résolu ici
https://forum.ovh.com/showthread.php...461#post665461
Bonjour gambiit,
Moi aussi je réponds un peu tard désolé, mais en effet j'ai bien un problème de résolution d'hôte..
J'avais créé une autre discussion car ça commençait à être un peu trop off-topic du vrack.
Le dig donne :
;; Got bad packet: bad label type
103 bytes
7a 75 85 a0 00 01 00 04 00 00 00 01 04 61 75 74 zu...........aut
68 05 63 6c 6f 75 64 03 6f 76 68 03 6e 65 74 00 h.cloud.ovh.net.
00 01 00 01 c0 0c 00 01 00 01 00 00 0e 10 00 04 ................
7f 2a 00 07 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 08 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 00 c0 0c 00 01 00 01 00 00 0e 10 00 04 .*..............
7f 2a 00 01 4a 8f 81 .*..J..
Comme je l'ai mis sur l'autre topic je n'ai ce problème que sur ma VM Vagrant, je vais creuser pour voir pourquoi ça ne resolve pas.
Merci en tout cas du coup de main !
Xavier
Réponse un peu tardive : peut-être as-tu résolu ton problème?
En tout cas, je pense que tu as un problème de résolution du domaine auth.cloud.ovh.net
Que donne dig auth.cloud.ovh.net?
Bah, on t'a déjà donné la même piste dans un autre topic.
Merci gambiit pour ce complément d'information. Oui comme ça ne passait pas au début (j'ai sourcé directement le openrc.sh dans mon bashrc), j'ai testé directement la CURL request avec les variables hardcodées qui ne passait toujours pas..
Arrives tu à obtenir un token ?
En voyant que je commençais à avoir des erreur sur mon manager V6, je me suis dis que certains de leurs services devaient être down et que ça venait de là.
J'utilise aussi docker mais pas sur mon ansible box depuis laquelle je provisionne mes autres VM/VPS.
Edit : avec --debug
Code:
DEBUG (extension:157) found extension EntryPoint.parse('v2token = keystoneauth1.loading._plugins.identity.v2:Token')
DEBUG (extension:157) found extension EntryPoint.parse('admin_token = keystoneauth1.loading._plugins.admin_token:AdminToken')
DEBUG (extension:157) found extension EntryPoint.parse('v3oidcauthcode = keystoneauth1.loading._plugins.identity.v3:OpenIDConnectAuthorizationCode')
DEBUG (extension:157) found extension EntryPoint.parse('v2password = keystoneauth1.loading._plugins.identity.v2:Password')
DEBUG (extension:157) found extension EntryPoint.parse('v3password = keystoneauth1.loading._plugins.identity.v3:Password')
DEBUG (extension:157) found extension EntryPoint.parse('v3oidcpassword = keystoneauth1.loading._plugins.identity.v3:OpenIDConnectPassword')
DEBUG (extension:157) found extension EntryPoint.parse('token = keystoneauth1.loading._plugins.identity.generic:Token')
DEBUG (extension:157) found extension EntryPoint.parse('v3token = keystoneauth1.loading._plugins.identity.v3:Token')
DEBUG (extension:157) found extension EntryPoint.parse('password = keystoneauth1.loading._plugins.identity.generic:Password')
DEBUG (session:248) REQ: curl -g -i -X GET https://auth.cloud.ovh.net/v2.0 -H "Accept: application/json" -H "User-Agent: keystoneauth1/2.3.0 python-requests/2.9.1 CPython/2.7.6"
INFO (connectionpool:758) Starting new HTTPS connection (1): auth.cloud.ovh.net
WARNING (base:122) Discovering versions from the identity service failed when creating the password plugin. Attempting to determine version from URL.
DEBUG (v2:63) Making authentication request to https://auth.cloud.ovh.net/v2.0/tokens
INFO (connectionpool:758) Starting new HTTPS connection (2): auth.cloud.ovh.net
DEBUG (shell:1082) Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
Traceback (most recent call last):
File "/usr/local/lib/python2.7/dist-packages/novaclient/shell.py", line 1080, in main
OpenStackComputeShell().main(argv)
File "/usr/local/lib/python2.7/dist-packages/novaclient/shell.py", line 914, in main
api_version = api_versions.discover_version(self.cs, api_version)
File "/usr/local/lib/python2.7/dist-packages/novaclient/api_versions.py", line 267, in discover_version
client)
File "/usr/local/lib/python2.7/dist-packages/novaclient/api_versions.py", line 248, in _get_server_version_range
version = client.versions.get_current()
File "/usr/local/lib/python2.7/dist-packages/novaclient/v2/versions.py", line 84, in get_current
return self._get_current()
File "/usr/local/lib/python2.7/dist-packages/novaclient/v2/versions.py", line 56, in _get_current
url = "%s" % self.api.client.get_endpoint()
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/adapter.py", line 132, in get_endpoint
return self.session.get_endpoint(auth or self.auth, **kwargs)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 661, in get_endpoint
return auth.get_endpoint(self, **kwargs)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/base.py", line 210, in get_endpoint
service_catalog = self.get_access(session).service_catalog
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/base.py", line 136, in get_access
self.auth_ref = self.get_auth_ref(session)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/generic/base.py", line 181, in get_auth_ref
return self._plugin.get_auth_ref(session, **kwargs)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/identity/v2.py", line 65, in get_auth_ref
authenticated=False, log=False)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 572, in post
return self.request(url, 'POST', **kwargs)
File "/usr/local/lib/python2.7/dist-packages/positional/__init__.py", line 94, in inner
return func(*args, **kwargs)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 452, in request
resp = send(**kwargs)
File "/usr/local/lib/python2.7/dist-packages/keystoneauth1/session.py", line 496, in _send_request
raise exceptions.ConnectFailure(msg)
ConnectFailure: Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
ERROR (ConnectFailure): Unable to establish connection to https://auth.cloud.ovh.net/v2.0/tokens
Merci beaucoup en tout cas !

Envoyé par
trompx
Merci beaucoup pour ces précieuses informations Gambiit !
curl: (7) Failed to connect to auth.cloud.ovh.net port 443: Connection refused
Pourtant vérifié plusieurs fois mes username/password/tenant, tout est bon mais ça passe pas...
T'as pas de chance, ils ont oublié de payer la facture d'électricité : tout est en vrack...en vrac, pardon.
Dans l'ordre des choses :
- récupérer le script openrc.sh dans l'interface horizon.
- source openrc.sh dans ta console qui va bien et renseigne le mdp
- vérifie tes variables d'environnement avec env | grep ^OS
Le client nova s'occupe de l'authentification des l'instant ou les variables d'environnement sont bien renseignées.
Si tes problèmes persistent, il se peut que tu ais un bug TLS avec ton python. Pour vérifier, tu peux utiliser le préfixe --debug à toutes tes commandes pour les rendre verbeuses.
Personnellement, j'utilise des containers docker et/ou des virtualenv python pour retrouver l'environnement adéquat à chacun de mes projets. Exemple :
Code:
FROM debian:latest
MAINTAINER Gambiit <>
RUN useradd -ms /bin/bash admin
RUN sed -i s/\#force_color_prompt/force_color_prompt/ /home/admin/.bashrc
RUN sed -i s/\#alias/alias/ /home/admin/.bashrc
ADD ./openrc.SBG1.sh /home/admin/openrc.sh
RUN apt-get update && \
DEBIAN_FRONTEND=noninteractive \
apt-get -yq install \
python-glanceclient \
python-novaclient \
python-cinderclient \
python-swiftclient \
python-neutronclient \
curl
USER admin
WORKDIR /home/admin
ENTRYPOINT /bin/bash
Bon courage!
Merci beaucoup pour ces précieuses informations Gambiit !
Je ne m'étais pas intéressé jusque là à openstack donc je me suis plongé dedans, mais je n'arrive pas vraiment à tester la bête. Dès la tentative de récupération d'un token en suivant le tuto ici
https://www.ovh.com/fr/publiccloud/g...ion_des_tokens, j'ai une erreur de type :
curl: (7) Failed to connect to auth.cloud.ovh.net port 443: Connection refused
Pourtant vérifié plusieurs fois mes username/password/tenant, tout est bon mais ça passe pas...
En testant simplement "nova image-list" j'ai :
No handlers could be found for logger "keystoneauth.identity.generic.base"
ERROR (ConnectFailure): Unable to establish connection to
https://auth.cloud.ovh.net/v2.0/tokens
Et ce avec la version 2.3.2 et 2.0.0 de keystone.

Envoyé par
trompx
Je suis allé faire un tour sur le manager mais toujours Vrack (soon).
Oui c'est toujours du bêta mais tu peux peut-être y participer en faisant une demande explicite sur la mailing list cloud.

Envoyé par
trompx
Quelqu'un aurait-il des infos sur la procédure pour la configuration des interfaces : à la création de la machine y aura t-il une option pour spécifier une ip locale et une option pour supprimer l'ip publique ?
Pour l'instant, il n'y a pas rien sur le manager V6. Mais une fois le vrack activé par l'équipe du RUNa, un réseau supplémentaire apparait dans ton interface Horizon. Avec l'API openstack, ça donne ça:
Code:
admin@827f3419147a:~$ neutron net-list
+--------------------------------------+---------+-------------------------------------------------------+
| id | name | subnets |
+--------------------------------------+---------+-------------------------------------------------------+
| XXXXXX-32cd-4680-bf04-8204bb892fd0 | icecast | XXXXXX-0211-46ef-ac3c-3a3932b809fe 192.168.0.0/16 |
| XXXXXX-4a46-4672-aade-5654d1fc0704 | Ext-Net | XXXXXX-65e9-4921-8943-8aa72a744a16 167.114.224.0/19 |
+--------------------------------------+---------+-------------------------------------------------------+

Envoyé par
trompx
Gambit as tu scripté l'install de l'interface additionnelle (ansible / bash script) ?
Tu es obligé de booter avec l'ip publique sur eth0 pour cloud-init. Tu installes ta deuxième interface en eth1. On peut faire un bout de script bash par exemple postinstall.sh pour une debian/ubuntu :
Code:
admin@827f3419147a:~$ cat postinstall.sh
#!/bin/bash
MACHINEIP='192.168.0.2'
MASK='255.255.255.0'
BROADCAST='192.168.0.254'
#update du système
DEBIAN_FRONTEND=noninteractive apt-get update -q
# DEBIAN_FRONTEND=noninteractive apt-get -yq upgrade
# un prompt en couleur
sed -i s/\#force_color_prompt/force_color_prompt/ /home/admin/.bashrc
# génération des bonnes locales
localedef -i fr_FR -f UTF-8 fr_FR.UTF-8
# placement de la timezone
cp /usr/share/zoneinfo/Europe/Paris /etc/localtime
echo -e "auto eth1" >> /etc/network/interfaces
echo -e "iface eth1 inet static" >> /etc/network/interfaces
echo -e " address $MACHINEIP" >> /etc/network/interfaces
echo -e " netmask $MASK" >> /etc/network/interfaces
echo -e " broadcast $BROADCAST" >> /etc/network/interfaces
ifup eth1
# route add -net 192.168.0.0 netmask 255.255.255.0 eth1
echo "configuration de la table de routage"
route -n
echo 0;
Pour lancer une instance avec le client nova par exemple
Code:
nova boot --key_name maclef --flavor vps-ssd-1 --image 'Ubuntu 14.04' --nic net-id=XXXXXXXX-4a46-4672-aade-5654d1fc0704 --nic net-id=XXXXXXXX-32cd-4680-bf04-8204bb892fd0,v4-fixed-ip='192.168.0.2' --user-data postinstall.sh testvrack2
La même chose peut se faire avec Horizon. Et bien sur déployer avec ansible.

Envoyé par
trompx
Question additionnelle : sur digitalocean, le fait de setup des droplets avec private ip ne suffit pas pour sécuriser l'échange des données entre droplets car d'autres utilisateurs ont accès au même network. Le vrack implémente t-il déjà la sécurité nécessaire à la sécurisation des échanges entre les différents VPS où doit on toujours mettre en place un VPN avec tinc par exemple ?
Merci d'avance
Non : tu es seul sur ton vrack. Tu peux même passer l'interface en mode --promiscous, tu n'entends que tes propres machines. À priori, tu peux faire plusieurs subnet dans un même vrack. Cela dépendra des quotas qui te seront attribués.
Pour l'instant un vrack est confiné à un DC. L'étape suivante : le multiDC
Merci pour l'info gambiit
Je suis allé faire un tour sur le manager mais toujours Vrack (soon).
Quelqu'un aurait-il des infos sur la procédure pour la configuration des interfaces : à la création de la machine y aura t-il une option pour spécifier une ip locale et une option pour supprimer l'ip publique ?
Gambit as tu scripté l'install de l'interface additionnelle (ansible / bash script) ?
Question additionnelle : sur digitalocean, le fait de setup des droplets avec private ip ne suffit pas pour sécuriser l'échange des données entre droplets car d'autres utilisateurs ont accès au même network. Le vrack implémente t-il déjà la sécurité nécessaire à la sécurisation des échanges entre les différents VPS où doit on toujours mettre en place un VPN avec tinc par exemple ?
Merci d'avance
Bonjour,
les vrack sont dispo en béta depuis vendredi dernier
Pour l'instant le manager V6 n'est pas finalisé. Mais c'est fonctionnel avec l'api openstack/ovh.
Faut monter à la main l'interface additionnelle dans les instances et le routage. On peut le faire sur une instance existante ou au boot.
Tout ça marche vraiment bien.
Le déploiement définitif est une question de jour...bravo pour le job!
Bonjour,
d'après twitter 10jours, et pour rester un peu plus "large" on peu dire 2-3semaine.
Cordialement, janus57
FWmaster
18/02/2016, 16h00
Des news du vrack ?
Bonjour Maxime,
Merci beaucoup pour les nouvelles, j'attends la dispo du vrack avec impatience. Finalisez bien, je serai prêt à tester day one.
MaximeHurtrel
11/01/2016, 23h13
MaximeHurtrel
08/01/2016, 19h57
Bonjour à tous !
Un premier test (interne) sur des machines en production devrai avoir lieu la semaine prochaine si tout va bien.
Nous avons parallélisé la conception de l'expérience utilisateur pour vous proposer la feature au plus vite dès qu'elle sera fonctionnelle et stable.
Voici un extrait de nos premières maquettes :
http://demo.ovh.eu/fr/0264ac377e8b16ec638e8b6a9507d7f6/
Le wording va changer mais comme indiqué précédemment sur la ML :
- Vous pourrez associer un VRACK par projet public cloud (plusieurs projets par VRACK, avec également des SD ou dedicated cloud dans le même réseau)
- Une fois associé, vous pourrez créer de multiples VLAN via l'API OVH ou OpenStack
- Vous pourrez de la meme façon, lier vos machines à un ou plusieurs VLANs (si le vlan ID est le meme aue celui que vous choisissez de configurer dans votre SD, bienvenue au cloud hybride !)
- Les VLANs seront bien multi Datacenter (même si il est possible que les liens ne soient pas fonctionnels lors du lancement)
- Si votre VLAN ne contient que des machines au sein d'un même projet public cloud, vous pourrez même bénéficier du DHCP aaS d'OpenStack pour ne pas avoir à gérer l'adressage de vos VMS
Comme toujours vos feedbacks sont les bienvenus !
Maxime
redbeard
06/01/2016, 12h06
Ok super nouvelle ! Merci
MaximeHurtrel
24/12/2015, 16h59
Hello
Un PoC fonctionnel ets en place sur notre infra de test, on paufine une premiere version de production pour fin Janvier. La première version ne supportera pas le traffic entre différentes régions, mais cela viendra très vite ensuite.
Bonnes fêtes à tous !
redbeard
23/12/2015, 17h12
Maxime des nouvelles pour le vrack ?
Merci
MaximeHurtrel
20/11/2015, 13h07
Bonjour Gamblit
Peux-tu créer un thread dédié sur le forum ? J,y renverrai mes collègues en charge de la documentation (pour information un gros chantier a été démarré pour permettre de rendre la documentation plus interactive à l'avenir). Merci d,avance pour tes retours !
Merci Maxime. Je n'ai pas encore fait le tour des groupes de sécurité. Je vais tester ça.
A propos de swift et object storage, il y a quelques erreurs sur les documentations, à ce qu'il me semble. Où peut-on le signaler?
MaximeHurtrel
19/11/2015, 00h17
Hello Gambit et désolé pour le délai. Notre R et D est en cours sur les réseaux privés, qui seront bien utilisable via Openstacl et integrable au vrack OVH. Un PoC fonctionnel devrait etre disponible dans quelques semaines, mais la mise a disposition s'oriente vers tout début 2016 d'après les derniers éléments dont je dispose. Bonne nouvelle : nous serons directement intégrés au vrack OVH 3.0 qui ouvre la porte a de nouvelles fonctionnalités.
L,équipe va mettre à jour l'indication en fonction. Note qu'en attendant tu peux bien sûr isoler tes machines via un firewall logiciel, mais je te confirme que cette feature d'isolation réseau sera disponible gratuitement pour les clients Cloud dans quelques semaines.
Oui da, j'ai peut-être pas été très clair dans ma question. Pour l'instant, dans le public cloud, on ne peut que booter des instances ayant des ip publiques. Mais on ne peut pas les relier dans un vrack privé. Ce qui limite, je pense, l'intérêt immédiat du truc. On a pas forcément envie d'exposer certains services entre instances.
Sur le manager, il apparait une bulle comme quoi cette fonctionnalité devrait être dispo au second semestre 2015. Le semestre est bien avancé. Je souhaitais savoir si maxime hurtrel pouvait nous donner des infos.
Merci par avance.
Bonjour,
Concernant les vracks, as-t-on une timeline plus précise que dispo au 2e semestre 2015.
Merci par avance