News

Tablettes & SmartPhones Windows 8, iOS, Android: Stratégie de protection de l'information sous l'ère du BYOD 

Mercredi 13 février : 13h00-14h00

 Sylvain Cortes -- Cerberis 

 

BYOD, Tablette Windows 8, iPad, SmartPhone Android !!!… L'explosion des nouveaux usages autour des SmartPhones et des Tablettes oblige les organisations à redéfinir le concept de protection de l'information afin d'éviter la fuite de données : La sécurité périmétrique traditionnelle s'efface petit à petit pour aboutir à l'utilisation de solutions de protection de l'information ciblant la donnée. Que vous utilisiez des Tablette Windows 8, des iPad, des tablettes Android, ou des SmartPhones, venez découvrir dans cette session comment protéger l'information de votre entreprise en intégrant l'ensemble de vos périphériques dans Active Directory, en utilisant des GPOs sur les systèmes iOS et Android, en déployant l'utilisation d'AD RMS sur l'ensemble de vos systèmes ou en utilisant des services de sécurité Cloud gratuits basés sur Azure.

 

Produits concernés :

  • Active Directory
  • Windows Azure
  • Windows 8
  • Active Directory Rights Management Services

Cette session fait partie du parcours thématique Aborder les sujets autour de la mobilité

Cliquez ici pour vous inscrire ! =)
 
 
Petite publicité pour mon responsable qui va animer une session sur un thème d'actualité : la stratégie de protection de l'information. Cette session permet en partie de rebondir sur ce précédent article.
 
Joris

L’année 2012 se termine donc par une baisse de la demande sur le marché de la prestation informatique qui enregistre pour ce mois de décembre 2012 un recul de 15 % par rapport au mois de décembre 2011.

Durant ce mois de décembre 2012, les catégories techniques les plus demandées restent inchangées :

- Systèmes, réseaux, sécurité (36 % des demandes),

- Nouvelles technologies (29 % des demandes),

- Consulting Expertise (10 %

 

Les demandes sur la catégorie « Systèmes, Réseaux, Sécurité » ont augmenté de 2 %.

 

En revanche, certaines catégories techniques ont été affectées par une baisse de la demande :

- Consulting Expertise : - 42 %

- CRM, Décisionnel, Datamining : - 18 %

- Nouvelles technologies : - 18 %

Source :

Joris


 Monaco, le mercredi 3 octobre 2012 Seul le prononcé fait foi 

Discours en vidéo : http://www.youtube.com/watch?v=yvHNeL-Z2k0 

Télécharger le discours ici   

 


 

Bonjour à tous,

La dernière fois que l’on s’est vu, c’était quasiment il y a un an, jour pour jour, pour la clôture des Assises 2011. On se retrouve pour l’ouverture des Assises 2012.

Permettez-moi de profiter de l’occasion pour une nouvelle fois remercier et féliciter Gérard Rio et son équipe, notamment Sophie Guérin.

Ces mots de remerciement ne sont pas qu’une formule, mais avoir l’occasion de voir comme cela, une fois par an, réunis quasiment tous les acteurs français de la cybersécurité, c’est une chance unique et mon premier message, à l’occasion de cette introduction, c’est : profitez-en ! Les enjeux que nous avons à relever sont extraordinaires, donc échangez, partagez, rencontrez, étudiez,...

Si j’en reviens à l’année dernière, j’étais intervenu sur le thème de l’hygiène informatique, du retour aux bases.

 

Microsoft présente Windows Server 2012 comme un OS cloud. Certes l'OS incorpore les briques d'infrastructure nécessaires à la virtualisation d'un datacenter avec Hyper-V 3.0 mais c'est surtout du côté de System Center qu'il faut chercher le côté cloud de l'OS...

  

Le lancement de Windows Server 2012 est certes important du fait de l'amélioration des capacités intrinsèques de l'OS. Mais il est surtout essentiel pour contrer VMware du fait de l'intégration du nouvel opus de la technologie de virtualisation de Microsoft, Hyper-V 3.0. Le nouvel hyperviseur peut enfin rivaliser avec son concurrent en matière de chiffres avec jusqu'à 64 cœurs virtuels et 1 To de mémoire vive affectables par VM, et la capacité de piloter des milliers de VM. En matière de clustering, les limitations sont aussi repoussées, passant de 16 serveurs pour Hyper-V 2.0 à 63 serveurs pour Hyper-V 3.0, chaque cluster pouvant supporter un maximum de 4 000 VM.



Les fonctions réseaux ont aussi été profondément remaniées. Hyper-V 3.0 embarque ainsi un nouveau commutateur Ethernet virtuel distribué, qu’il sera possible de remplacer par des commutateurs tiers comme le Nexus 1000V de Cisco ou comme la future implémention d'openvSwitch de NEC. D'autre acteurs tels HP ou IBM pourraient aussi prochainement se joindre à la partie. Il est aussi désormais possible d’agréger les débits de plusieurs cartes réseaux (une fonction de « NIC Teaming » liée à une refonte de Windows). De même avec NV-GRE, Microsoft dispose d'une alternative à VXLAN (le protocole supporté par VMware) pour la virtualisation des réseaux. De quoi servir de fondation à une stratégie maison de réseau programmable.

[Lire aussi notre article en trois parties : Que faut-il attendre de Windows Server 2012 ?]

Côté stockage, Microsoft a pris conscience de son retard et a mis les bouchées doubles forçant d'ailleurs VMware à le suivre sur certains aspects. Par exemple, Hyper-V 3.0 supporte des fonctions de migration du stockage SAN (live storage migration, qui sont une évolution bienvenue de la fonction Quick Storage Migration de Windows Server 2008 R2. Certains éléments indiquent en outre que Microsoft prévoit de collaborer avec des partenaires stockage pour délester la migration du stockage sur le matériel de baies de stockage. Enfin, la nouvelle version d’Hyper-V devrait également supporter plusieurs migrations live du stockage en parallèle. Ce qui intéresse fortement les utilisateurs d’Hyper-V.

Hyper-V 3.0 propose aussi une fonction originale de migration de stockage en attachement direct entre deux serveurs distincts. Cette dernière fonction devrait s’avérer particulièrement intéressante pour les TPE et PME ne souhaitant pas investir dans une infrastructure SAN. Un effort a aussi été fait sur les déploiements en mode NAS. Jusqu'alors, les faibles performances du protocole SMB et sa fragilité rendaient impossible l'utilisation d'un stockage NAS sur base de technologies Microsoft pour les environnements virtualisés. Microsoft aurait pu (ou dû) se tourner vers NFS, déjà utilisé par tous ses concurrents, mais il a finalement choisi de développer une nouvelle version renforcée de son protocole de partage de fichiers, baptisée SMB 3.0. Supportée dans Windows Server 2012, cette nouvelle mouture du protocole devrait faire son apparition dans les listes de support des grands du stockage dans les mois à venir.

Notons enfin que Replica, une fonction de réplication au niveau hôte, précédemment présentée par Microsoft, pourrait également aider à maintenir la disponibilité des applications critiques en utilisant des succursales comme sites de reprise.

Si Microsoft présente Windows Server 2012 comme un OS Cloud, c'est plutôt en fait du côté de System Center 2012 qu'il faut regarder pour les fonctions cloud. Lancée lors de l’édition 2012 de sa conférence Microsoft Management Summit (MMS 2012), la dernière mouture du logiciel est en effet un véritable parapluie d'administration et d’automatisation des environnements Windows Server.
D'ailleurs, System Center 2012 est présenté par Microsoft comme la solution la plus simple du marché pour mettre en place un cloud privé, une façon de positionner le logiciel comme la pierre angulaire de la riposte de l’éditeur à l’offre de cloud de VMware (même si pour l’instant, System Center n’a pas la portée d’un vCloud). Le produit, désormais vendu comme une suite, inclut ainsi l’ensemble des modules nécessaires pour concevoir une architecture cloud, la déployer, la supporter et l’administrer.

Jusqu’alors les six principaux composants de System Center étaient disponibles de façon séparée. Une entreprise pouvait ainsi n’acheter que le module d’administration (Operations Manager), que le module d’administration de la virtualisation (SCVMM) ou que le module de gestion des configurations de postes clients et de serveurs (Configuration Manager).

Désormais, tous les modules de la suite (System Center 2012 App Controller, System Center 2012 Configuration Manager, System Center 2012 Data Protection Manager, System Center 2012 Endpoint Protection, System Center 2012 Operations Manager, System Center 2012 Orchestrator, System Center 2012 Service Manager et System Center 2012 Virtual Machine) sont intégrés en standard dans les deux différentes éditions de System Center 2012.

La première, baptisée « Standard », permet d’administrer des serveurs non ou peu virtualisés (la licence permet de gérer deux VM par serveur géré), tandis que l’édition « Datacenter » permet la gestion d’un nombre illimité de VM par serveur administré. Il est à noter que le nombre de licences à acquérir est proportionnel au nombre de processeurs physiques par serveur (par exemple l’administration d’un serveur quadri-socket requiert 4 licences de l’édition DataCenter). Une licence de System Center 2012 Standard est vendue 1 323 $ tandis que l’édition Datacenter coûte 3 607 $. Ces prix incluent l’abonnement obligatoire à la Software Assurance pour une période de deux ans. À ces tarifs, il convient éventuellement d’ajouter le coûts des licences par poste client à administrer (de 22 à 121 $ selon les fonctions utilisées, avec deux ans de software assurance inclus).

Un cloud d’infrastructure privé en quelques clics…

Lors du lancement du logiciel, Brad Anderson, le vice-président de la division outils d’administration et de sécurité de Microsoft, a insisté sur l’aptitude de System Center 2012 à déployer très rapidement des clouds privés à un coût raisonnable. Selon lui, la suite de Microsoft couplée à Windows Server 2012 et Hyper-V 3.0 permet aussi de concevoir et d’administrer des clouds pour un coût 10 fois inférieur à celui d’une pile équivalente chez VMware.

Avec cet argument, Microsoft vise à la fois les entreprises et les fournisseurs de services. Ces derniers devront toutefois développer leur propre couche de portail de services multitenant s’ils veulent utiliser la pile Microsoft pour motoriser un cloud public, le portail de gestion et de provisioning de services de l’éditeur (App Controler) se limitant aux clouds privés. Il leur faudra aussi sans doute attendre la seconde partie de l’année et le lancement d’Hyper-V 3.0 pour déployer l’outil à grande échelle.

Des modules singulièrement enrichis

Au-delà de la réorganisation de la suite et de l’accent mis sur le cloud privé (qui prendra toute sa portée avec l’arrivée de Windows Server 2012 et d’Hyper-V 3.0), on note les importants progrès fonctionnels effectués par les différents modules : System Center Operation Manager, par exemple, ne dépend plus d’un unique « Root Management Server », ce qui élimine tout risque de défaillance - la fonction du RMS peut désormais être distribuée entre plusieurs serveurs d’administration. SCOM s’enrichit aussi de nouvelles fonctions d’administration du réseau (via l’intégration en OEM de capacités issues d’EMC Smarts), qui permettent par exemple de détecter la configuration physique du réseau, d’identifier les VLANS et de gérer les périphériques réseaux (via SNMP v3). De nouveaux management packs viennent également enrichir la collection de packs existants.

Configuration Manager met quant à lui l’accent sur la gestion des terminaux mobiles avec une gestion basique des combinés IOS et Android via ActiveSync et une gestion complète des terminaux Windows Phone. Configuration Manager permet aussi le déploiement d’applications sur les terminaux mobiles en fonction du contexte de l’utilisateur (déploiement d’une application complète en local, d’un accès VDI à une application serveur…). Pour ce rôle toutefois,  l’outil ne gère de façon autonome que les terminaux Symbian et Windows Phone et s’appuie sur Citrix pour la distribution d’applications sur les terminaux iOS.

Service Manager, l’outil de gestion de service de l’éditeur de Redmond, s’enrichit quant à lui de quatre nouveaux processus Itil et est positionné de plus en plus comme un outil pour les exploitants, alors qu’à l’origine, il était plutôt présenté comme un outil de gestion des incidents pour les utilisateurs finaux.

Enfin, pour terminer ce tour d’horizon (incomplet) de la suite, signalons que System Center Virtual Machine Manager, l’outil de gestion de la virtualisation ajoute XenServer à son portefeuille d’hyperviseurs gérés, en plus des actuels Vmware ESXi et Hyper-V. SCVMM est déjà prêt pour la gestion d’Hyper-V 3.0 et inclut notamment le pilotage graphique de nouvelles fonctions proposées par le nouvel hyperviseur, comme la migration à chaud de VM sans stockage partagé ou une gestion plus avancée du provisioning du stockage.

[Lire aussi notre article en trois parties : Que faut-il attendre de Windows Server 2012 ?]

En France, de nombreux partenaires de l’éditeur comme Osiatis ou vNext ont déjà commencé à déployer l’outil chez des clients et les représentants de ces sociétés  s’accordent à dire que l’intérêt pour la nouvelle version dépasse de très loin celui pour la mouture antérieure. System Center 2012 aurait déjà séduit de grands utilisateurs, dont Renault (qui a été le seul client français à participer au programme d’évaluation en avance de phase du logiciel – programme dit « TAP »).

Il faudra attendre System Center 2012 SP1 pour gérer Hyper-V 3.0

Dans tout plan, il y a parfois des couacs et le beau discours sur l'OS cloud se heurte toutefois à un petit détail fâcheux : selon la documentation de Microsoft, la version actuelle de System Center 2012 (et notamment la version actuelle de System Center Virtual Machine Manager) ne supporte que les hôtes Hyper-V sous Windows Server 2008. Comme nous le confirmait en juin dernier Jérôme Trédan, le directeur des produits serveurs et plateformes de Cloud Computing de Microsoft, les entreprises devront passer à System Center 2012 Service Pack 1 (SP1), pour pouvoir administrer pleinement les capacités de Windows Server 2012 Hyper-V (ou Hyper-V 3.0).

Le problème est qu'il n'y a pour l'instant pas de date ferme pour System Center 2012 SP1. Cette nouvelle mouture de l’outil d’administration de Microsoft n’en est pour l’instant qu’au stade de la Community Technology Preview. Or, elle est nécessaire pour tirer parti des nouvelles fonctionnalités de la technologie Hyper-V, comme la technologie de virtualisation de réseau NVGRE (Network Virtualization using Generic Routing Encapsulation), les améliorations en matière de migration en temps réel de VM  et le support amélioré des sauvegardes de volumes en cluster (CSV).

 

Source : MagIT

Joris


Qui est en ligne ?

Nous avons 21 invités et aucun membre en ligne

Please publish modules in offcanvas position.