ITPT

25 juil. 2011

Hortonworks, Hadoop venu de Yahoo!

Hortonworks (www.hortonworks.com), éditeur dédié à Hadoop, est un spin-off de Yahoo!, poussé par le géant de Sunnyvale et Benchmark Capital. L'idée est d'accélérer l'adoption et le développement de la solution Hadoop basée sur le projet open source Apache du même nom. Un nom à coucher dehors mais qui viendrait de Horton, le fameux film dont le héros est un éléphant, tout comme le symbole d'Hadoop. Wow, certains ont de la suite dans les idées... Une belle initiative de quoi freiner les espoirs propriétaires autour du Big Data et du Cloud Computing. Hortonworks se dresse aussi face à des pionniers indépendants comme Cloudera. Les ambitions sont réels puisque clairement les données de la planète seront stockées pour moitié sur Hadoop d'ici 5 ans estime Eric Baldeschwieler, CEO d'Hortonworks et ancien VP Software Engr. d'Hadoop chez Yahoo! La plateforme logicielle se positionne simplement comme le standard de fait pour stocker, gérer et analyser les données web. Hadoop continue d'être au coeur de la technologie de Yahoo avec 700 millions d'utilisateurs tournant sur 42000 serveurs !! Hortonworks portera ses efforts sur les composants d'Hadoop notamment MapReduce et HDFS, le système de fichiers distribué d'Hadoop. On suivra avec intérêt les évolutions de cette aventure et nous devrions en savoir plus d'ici la fin de l'année.

24 juil. 2011

Solix recrute un VP Channel WW

Solix Technologies (www.solix.com), éditeur d'ILM applicatif, annonce la nomination de Michael Norwood qui prend la tête de toute la stratégie channel et devra étendre le périmètre de couverture de la gamme EDMS. Félicitations.

21 juil. 2011

2 nouveaux ARX chez F5

F5 Networks (www.f5.com | NASD:FFIV) ne perd pas de temps et annonce 2 nouveaux modèles ARX: ARX1500 et ARX2500 qui complètent parfaitement la gamme sur le segment SMB. C'est aussi l'apparition de la connectivité 10GbE sur cette gamme de produits pour ce segment de marché justifiant si besoin son parfait rôle en chef d'orchestre d'une architecture multi-tier et pour les migrations de données. Le prix est aussi attractif puisqu'il se situe au prix de l'ARX500 avec 2 alimentations, 4 fois son débit, 2 fois sa capacité de virtualisation et 5 fois son nombre maximal d'utilisateurs supportés. Quand à l'ARX2500 devenu moins encombrant et pour le même prix, il reçoit une connectivité 10GbE lui apportant un débit 2 fois plus important. Encore une justification supplémentaire pour passer à la technologie ARX.


20 juil. 2011

Dell se paie Force10 Networks, bien vu

Dell (www.dell.com | NASD:DELL), a finalement fait son choix avec Force10 Networks, (www.force10networks.com) un des acteurs en vue en matière d'Ethernet, IP, 10GbE pour le Data Center, les Services Providers et l'Entreprise. Dell devrait pousser ces offres Ethernet/IP à haut-débit avec ses solutions de stockage iSCSI, confirmant le rôle anecdotique de FCoE, devenu disons contournable ou presque inutile mais surtout l'intégrer au coeur de sa stratégie Cloud et Virtualisation du Data Center. La bataille s'annonce forte avec les grands acteurs Ethernet/IP comme Cisco, Juniper, HP/3Com ou IBM/BNT. Le grand perdant de ce mouvement est encore un fois Brocade, dont le HQ est à 2 pas de celui de Force10 à San Jose, trop cher à acquérir dont l'avenir seul va s'assombrir avec la perte potentielle de l'accord avec Dell. Et toujours les mêmes éléments fondamentaux à considérer ici, 2Mds$ de revenu en 2010 pour Brocade avec à tout casser 500M$ en Ethernet, bien faible, 1,2Mds$ en FC, le reste en service, pour une capitalisation de 3Mds$. Qui veut de ce truc trop cher à 4, 5 ou 6 Mds $ quand FC n'est plus un marché en croissance, que les parts de marché Eth/IP sont faibles et que la société est isolée sans R&D IP efficace suite à la fuite des cerveaux Foundry Networks? Personne, Brocade devra se débrouiller tout seul à moins d'être moins gourmand. Alors attention, aux abris...

18 juil. 2011

VeloBit ou le SSD efficace

En passant par Boxborough dans la région de Boston il y a quelques semaines, nous sommes passés devant VeloBit (www.velobit.com), un éditeur qui se consacre au développement d'une couche de gestion de cache pour unités SSD afin d'améliorer la performance d'accés. La société avait refusé notre visite, préférant ne pas dévoiler le moindre détail sur sa technologie, le produit est en private-beta et fonctionnera avec tout type de SSD du marché, sera transparent pour les applications et supporte le mode bloc. A comprendre la technologie malgré le peu d'information disponible, cela semble rejoindre la fonction cache développée par Fusion-io. L'entreprise créée en Septembre 2010 a effectué un premier tour de levée pour continuer son développement et son effectif est de moins de 10 personnes comme en témoigne les locaux aperçus à Boxborough.

L'équipe en plein développement chez VeloBit

14 juil. 2011

Librato pour un Cloud efficace

Dernier rendez-vous de la tournée Européenne avec la visite du HQ Librato (www.librato.com) à San Francisco sur Market street où nous rencontrons Nik Wekwerth, VP Marketing, Roland Schmidt, VP Business Development, Joseph Ruscio, CTO et Fred ven den Bosch, CEO et ancien CTO de Veritas Softare et véritable légende dans la vallée. Petite équipe trés pointue et petits locaux mais nous ressentons une vraie dynamique, une effervescence comprenant qu'il se passe quelque chose ici. Librato est soutenu par 2 fonds: Acartha et Menlo Ventures et compte aujourd'hui 10 employés. Développement démarré en 2007, le produit Silverline est sorti fin 2008 comme Load Manager, il a ensuite évolué vers le monitoring ayant déjà un moteur très complet.

Fred van den Bosch, CEO, Rollie Schmidt, VP Bus. Dev.
et Jo Ruscio, CTO
Le sujet est d'actualité mais trés différent de nos autres sessions, il s'agit d'une solution de monitoring et d'administration des infrastructures Cloud dite "Cloud Monitoring and Management as a Service" orienté performance et disponibilité. Par là, je réduis l'offre à Silverline bien que Librato se prépare à annoncer Metrics qui devrait être dévoilé à l'autonme donc je n'en dirai rien ici.

Nik Wekwerth, VP Marketing
Silverline est une offre logicielle pour et par le Cloud, elle permet de surveiller très finement toute la consommation et l'allocation des ressources pour une application tournant sur un système informatique mono-machine ou très éclaté dans une infrastructure horizontale et multi-tier. On parle ici d'Application Resource Management as a Service pour aller au-delà de l'aspect Cloud. L'idée ensuite est bien sûr de tirer parti de cette collecte pour définir des seuils qui permettent un déclenchement de tâches particulières afin rester dans des objectifs particuliers, satisfaire des critères de performances par exemple ou simplement maximiser l'utilisation des ressources.

Schéma d'intégration avec l'agent, le back-end et la librairie Silverline
L'approche Librato avec Silverline est de couvrir tous les besoins horizontaux d'une infrastructure IT d'un data center et d'éviter l'usage de produits spécifiques, certes efficaces et pertinents, mais limités à un domaine particulier comme Loggly pour la journalisation, Nagios pour l'OS ou l'uptime avec Pingdom. Le produit est simple, super complet, transparent et non intrusif sans impact conséquent et délivre un tableau de bord sans équivalent. La démonstrations temps-réel confirme la qualité de l'interface, des compteurs et autres éléments de mesures avec toute la fnesse nécessaire, la filtrage et la navigation en profondeur.

Une vue du tableau de bord Silverline avec ici la consommation CPU
Installée sous forme d'agent logiciel dans les serveurs à surveiller, la logique est asservie à une batterie d'instances Silverline tournant chez Amazon sous EC2 couplés à S3. Donc rien chez Librato, qui est éditeur de logiciels pour data center sans infrastrucutre propre. Les plateformes supportées sont Ubuntu, Debian, RedHat, CentOS, Fedora et Amazon Linux AMI. Très bien vu, cela apporte souplesse, réactivité, et ubiquité du service qui s'appuit sur le SLA d'Amazon. Silverline est vendu en mode de souscription à un prix défiant toute concurrence:
- gratuit pour les 8 premiers core CPUs (8 x 1 core, 4 x 2 cores ou 2 x 4 cores),
- au-delà de 8 cores, l'utilisation est facturée à 0,006$ par CPU par heure.





Le produit commence une vraie percée sur le marché, Librato a signé plusieurs accords notamment avec RackSpace, OpSource et GoGrid, 3 références en matière de hosting. Session super intéressante où nous espérons retourner en Décembre avec le Tour Français. Sinon je vous invite à tester Silverline puisque 30 jours d'essai sont offerts, clickez sur la banner ci-dessous.

11 juil. 2011

Violin Memory recrute un guru

Jonathan Goldick
Violin Memory (www.violin-memory.com), innovateur en offre stockage à base de Flash, vient de recruter un véritable expert du stockage en la personne de Jonathan Goldick qui vient de LSI suite au rachat d'ONStor. Auparavant, Jonathan était passé par Zambeel, Microsoft et Transarc notamment tout ça pour illustrer une super compétence côté file storage. Nous avons collaboré ensemble il y a quelques années quand nous développions et présentions certains tutoriaux SNIA au sujet des systèmes de fichiers et du partage de données. Une très bonne recrue pour Violin Memory.

10 juil. 2011

Ca déménage dans la vallée

L'arrivée de Drobo est annoncée
Data Robotics (www.drobo.com) devrait changer de locaux et arriver dans de vrais grands espaces à San Jose à l'angle de Component drive et North First street. Les photos ci-dessous témoignent du bon état de santé du Californien.

Nouveau HQ pour Drobo à San Jose
Idem pour Panasas (www.panasas.com), leader en NAS haut de gamme, qui a migré de Fremont à Sunnyvale, en face des anciens locaux de Palm sur Maude Avenue. C'est aussi l'occasion pour la société de modifier son logo. Ca bouge et globalement on mesure la différence, plus de bouchon, moins de locaux vide et une ambiance meilleure, de quoi conserver un moral positif et développer toujours plus d'innovations.

7 juil. 2011

Pierre Langlois arrive chez Silver Peak

Silver Peak (www.silver-peak.com), acteur de l'optimisation et de l'accélération des transferts réseaux WAN, vient de recruter Pierre Langlois comme Director Channel EMEA. La compétence de Pierre Langlois est reconnue après des passages chez Blue Coat et Packeteer. Bonne chance.

6 juil. 2011

Cloud et Virtual Appliance chez F5 Networks

Schéma d'intégration d'ARX Cloud Extender
Notre visite récente chez F5 Networks (www.f5.com | NASD:FFIV) nous a permis d'approfondir 2 sujets chauds chez F5 et sur le marché. Le premier sujet est l'intégration de la plateforme de virtualisation de fichiers ARX au cloud comme tier complémentaire à une hiéarchie établie ou nouvelle au sein du Data Center. L'idée ici est de continuer à utiliser les 2 ou 3 tiers internes avec un niveau primaire haute performance pour les données actives, un second tier pour les données dites inactives et un troisème pouvant servir d'unité de protection qui va recevoir les images backup et archive par exemple.
Un Acopia ARX6000 avant
l'acquisition par F5 Networks
Le produit ARX Cloud Extender est en fait une option logicielle à la gamme ARX qui s'installe sur tout type de serveur Windows tournant Windows Server 2003 ou 2008 opérant en passerelle ou connecteur au cloud. Elle offre un accès CIFS côté client et s'intégre à l'API Web côté Cloud grâce aux services REST ou SOAP. L'idée est donc de présenter un espace de stockage Cloud comme unité locale et vice-versa de façon complétement transparente par son inclusion au pool de stockage vituel constitué par l'appliance ARX. L'espace de nommage global ainsi créé par cete assemblage logique entre les partages de fichiers permettent donc le déplacement naturel des données entre serveurs et lieux de stockage comme la migration entre un serveur de fichiers tier 1 vers une unité Cloud. Le transfert est bien sûr chiffré, une fonction de cache des meta-data est activée afin d'accélérer les recherches et d'améliorer l'expérience utilisateur et un ordonnanceur de migration est disponible afin de programmer les déplacements de données vers le Cloud surtout si celles-ci sont nombreuses et de taille importante. La solution est validée avec EMC Atmos, NetApp StorageGRID, Amazon S3 et Autonomy avec une offre qui vient d'Iron Mountain VFS Cloud Storage.
L'autre sujet fondamental est la disponibilité de la technologie ARX sour forme d'Appliance Virtuel confirmant 2 prédictions que j'avançais il y a quelques temps quand à l'évolution des logiciels d'infrastructure et logiciel d'entreprise. Je la confirme une nouvelle fois ici: "Les logiciels d'infrastructure subiront une convergence entre les appliances physiques et les logiciels indépendants sont forme d'Appliance Virtuel permettant de réduire une complexité grandissante et une explosion des unités physiques. Les logiciels d'entreprise muteront vers un mode SaaS rendant plus simple les phases d'acquisition, les évolutions et globalement les coûts d'infrastructure". vARX ou ARX Virtual Edition opére sur VMware ESX4 ou ESXi v4 et offre toutes les fonctionnalités des appliances ARX physiques avec quelques limites néanmoins: 1 port Ethernet virtuel, 500 utilisateurs et 192 millions de fichiers. Le produit est disponible en test pour 90 jours, alors n'hésitez pas.

5 juil. 2011

Un SANFS chez Infortrend

Infortrend (www.infortrend.com |TPE:2495), fournisseur alternatif de stockage, annonce ESVA Cluster File System. Misère, Infortrend commet l'erreur de qualifier son produit de Cluster File System alors qu'il s'agit d'un SAN File system ou SAN File Sharing System. Revenons sur les différences déja évoquées lors d'un très ancien post (juillet 2006):

  • Cluster File System (CFS): L'esprit est ici de partager le système de fichiers, sa srtucture et sa logique. L'ensemble des machines mises-en-jeu "comprend" la structure du système de fichiers "générée" sur les unités de stockage visibles nativement en mode bloc, on parle alors de mode disque partagé ou shared-disk. Pour évoquer l'exemple d'Unix, tous les noeuds interprètent le super-block et l'acte de montage natif, c'est aussi la raison pour laquelle les CFS sont homogènes dans les OS, seul VERITAS pouvait se permettre d'envisager un CFS hétérogne vu la présence sur des OS différents du même file sytem. Ce point est important car les file system natifs fournis en standrad avec les OS sont souvent propriétaires à l'OS en question confirmant alors le point de l'homogénéité précédent. La grappe de machines est généralement limitée à quelques dizaines de machines avec une proximité importante du à la cohérence de cache nécessaire. On distingue ensuite des implémentations dites symétriques ou asymétriques suivant qu'une machine ou plusieurs possèdent un rôle particulier comme la journalisation globale, la gestion des verrous... C'est aussi le maintien de la sémantique Posix, de la cohérences des caches qui permet l'utilisation de tels souches avec des bases de données parallèles comme la plus connue Oracle RAC. Pour mémoire, je citerai quelques fournisseurs avec HP/Compaq/Digital, IBM, Sanbolic, SANique, Sequent, Sun, VERITAS ou VMware.
  • SAN File System (SANFS): On parle ici plus d'un mécanisme de partage de fichier sur un SAN d'où le nom SAN File Sharing System réduit à SAN FS, le système de fichier n'est pas partagé seuls le sont à la demande les fichiers résidant sur les unités de stockage. Les machines obéissent globalement à 2 catégories: les serveurs de stockage nommés MDS pour Meta-Data Server ou Meta-Data Controller qui supervisent les unités de stockage et les requêtes des machines clientes et ces clients vus commes des consommateurs de données, ces 2 types de systèmes sont bien sûr connectés au stockage. Les clients accédent au stockage par l'information fournie par le MDS qui répond aux requêtes d'écriture et de lecture, positionne des verrous et opére des fonctions de maintenance. Par nature ces 2 types de machines tournent des OS différents comme Unix, Linux ou Windows pour les MDSs et Windows, Mac et Linux pour les clients et le nombre de machines mises en jeu est bien supérieur à un CFS. Les applications sont orientées "fichier pur" à savoir que les modèles structurés comme une base de données ne peuvent être utiliser sur un tel système de partage qui ne propose pas les facilités de verrouillage nécessaire. Le protocole entre les clients et les MDSs est souvent propriétaire d'où la présence d'un agent sur les postes consommateurs, certaines implémentations utilisent NFS pour communiquer les meta-data fichier, ensuite le client court-circuite le protocole et accédent directement en raw aux unités disques. Et c'est sans évoquer pNFS - fichier, bloc et objet - notamment disponibel avec NFSv4.1.
Un mode mixte peut être décliné avec les MDS en mode Cluster FS servant des clients connectés au stockage en mode SANFS asservis aux MDSs. Les MDSs peuvent être aussi simplement configurés en failover comme la majorité des SANFS le proposent, plus simple à mettre en place. Dans les 2 cas, la configuration entre les serveurs et les clients répond aux caractéristiques d'un SANFS.

Parlons du produit Infortrend en gardant les remarques ci-dessus à l'esprit. ESVA CFS est composé de 2 Meta-Data serveurs, d'agent logiciel à installer sur chaque poste client, une gateway LAN optionnelle et des unités de stockage connectées en mode bloc iSCSI (1 et 10GbE) ou FC à 8Gb/s. Les clients supportés sont Windows, Mac et Linux pour une capacité maximale de 4Po. La gateway LAN permet de partager les fichiers avec des postes connectés aux réseux mais non aux unités de stockage. Les performances avancées par ESVA CFS sont intéressantes avec une pointe à 24000Mo/s en lecture et la moitiè en écriture de quoi satisfaire nombre de besoins pour les projets multimédias, broadcasts, pétroliers ou HPC. Le produit ressemble à s'y méprendre à Quantum StorNext, la référence des SANFS pour les environnements multimédias. De là à penser à un accord non révélé, nous y sommes presque. A voir mais je ne perdrai pas mon temps à essayer le copie, je préfère l'original donc Quantum StorNext.

Architecture d'Infortrend ESVA Cluster File System

4 juil. 2011

Cirtas explose en vol

Cirtas Systems (www.cirtas.com), l'une des startups prometteuses du Cloud Storage confirme son retrait du marché après des déboires techniques importants. J'avais couvert Cirtas avec un post en Novembre 2010 et la solution semblait au point malgré quelques doutes en suspens. Mon sentiment s'est confirmé lors de ma visite en Janvier 2011 au HQ de San Sose. Dommage, l'idée demeure excellente - considérer un stockage en cloud public sous Amazon S3 comme espace de stockage local et primaire grâce à la technologie Cirtas déployée sous forme d'appliance Bluejet - seules la technologie et l'exécution semblaient faire défaut finalement. La concurrence en profite notamment StorSimple mais l'impact sur la pertinence du modèle offre un angle d'attaque aux réticents ou opposants au concept. Rappelons simplement à cette population que le stade du concept est dépassé, le marché propose déjà des solutions qui fonctionnent parfaitement.