Connecteur NFS pour Hadoop

Exécutez vos applications d'analytique Big Data sur des données existantes stockées sur des systèmes NFS à l'aide du connecteur FAS NFS NetApp pour Hadoop.

Avec le connecteur FAS NFS NetApp® pour Hadoop, vous pouvez exécuter vos applications d'analytique Big Data sur vos données NFSv3 sans déplacer les données, créer de silo distinct ni configurer de cluster Hadoop. Vous pouvez immédiatement lancer l’analyse des données existantes avec Hadoop, dont la prise en charge par votre équipe IT est facilitée. Les worklflows sont simplifiés dans la mesure où vous n’avez pas besoin de copier ni de gérer les données entre plusieurs silos.

Utilisez le connecteur NetApp FAS NFS pour Hadoop pour réaliser vos démonstrations de faisabilité, puis configurez un cluster Hadoop à l'aide des solutions NetApp pour Hadoop pour traiter les données issues de NetApp Utility Toolchest.

Avec le connecteur FAS NFS NetApp pour Hadoop, vous pouvez soit opérer par transfert des données HDFS (Hadoop Distributed Filesystem) vers NFS, soit exécuter conjointement NFS et HDFS. Le connecteur FAS NFS NetApp® pour Hadoop fonctionne avec MapReduce pour le calcul ou le traitement, tout en assurant la prise en charge d'autres projets Apache tels que HBase (bases de données orientées colonnes) et Spark (moteur de traitement compatible avec Hadoop). Ces fonctionnalités permettent au connecteur de prendre en charge diverses charges de travail, notamment par lots, in-memory, de streaming, etc.

Pour en savoir plus, téléchargez le connecteur FAS NFS NetApp pour Hadoop ou procurez-vous le rapport technique Connecteur FAS NFS NetApp pour Hadoop PDF ou Apache Hadoop sur NetApp Data Fabric PDF.