cta

Get Started

nube

¿Está preparado para empezar?

Descargue sandbox

¿Cómo podemos ayudarle?

cerrarBotón de cerrar

Hortonworks Sandbox Tutorials
for Apache Hadoop

Get started on Hadoop with these tutorials based on the Hortonworks Sandbox

Desarrollar con Hadoop

Empiece a desarrollar con Hadoop. Estos tutoriales están diseñados para facilitar su desarrollo con Hadoop:

Apache Spark en HDP

Introduction This is the third tutorial in a series about building and deploying machine learning models with Apache Nifi and Spark. In Part 1 of the series we learned how to use Nifi to ingest and store Twitter Streams. In Part 2 we ran Spark from a Zeppelin notebook to design a machine learning model […]

Introduction This tutorial will teach you how to build sentiment analysis algorithms with Apache Spark. We will be doing data transformation using Scala and Apache Spark 2, and we will be classifying tweets as happy or sad using a Gradient Boosting algorithm. Although this tutorial is focused on sentiment analysis, Gradient Boosting is a versatile […]

Introduction Apache Spark is a fast, in-memory data processing engine with elegant and expressive development APIs in Scala, Java, Python, and R that allow developers to execute a variety of data intensive workloads. In this tutorial, we will use an Apache Zeppelin notebook for our development environment to keep things simple and elegant. Zeppelin will […]

Introduction This tutorial walks you through many of the newer features of Spark 1.6.2 on YARN. With YARN, Hadoop can now support many types of data and application workloads; Spark on YARN becomes yet another workload running against the same set of hardware resources. Prerequisites This tutorial is a part of series of hands-on tutorials […]

Introduction Apache Zeppelin is a web-based notebook that enables interactive data analytics. With Zeppelin, you can make beautiful data-driven, interactive and collaborative documents with a rich set of pre-built language backends (or interpreters) such as Scala (with Apache Spark), Python (with Apache Spark), SparkSQL, Hive, Markdown, Angular, and Shell. With a focus on Enterprise, Zeppelin […]

Introduction In this two-part lab-based tutorial, we will first introduce you to Apache Spark SQL. Spark SQL is a higher-level Spark module that allows you to operate on DataFrames and Datasets, which we will cover in more detail later. In the second part of the lab, we will explore an airline dataset using high-level SQL […]

Introduction In this tutorial, we will introduce you to Machine Learning with Apache Spark. The hands-on lab for this tutorial is an Apache Zeppelin notebook that has all the steps necessary to ingest and explore data, train, test, visualize, and save a model. We will cover a basic Linear Regression model that will allow us […]

Introduction The technical preview of the Spark-HBase connector was developed by Hortonworks along with Bloomberg. The connector leverages Spark SQL Data Sources API introduced in Spark-1.2.0. It bridges the gap between the simple HBase Key Value store and complex relational SQL queries and enables users to perform complex data analytics on top of HBase using […]

Hello World

Introduction In this tutorial, you will learn about the different features available in the HDF sandbox. HDF stands for Hortonworks DataFlow. HDF was built to make processing data-in-motion an easier task while also directing the data from source to the destination. You will learn about quick links to access these tools that way when you […]

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

This tutorial will help you get started with Hadoop and HDP.

La congestión en el tráfico es un problema para los trabajadores. Un nuevo equipo de planificadores de ciudad trabajan para crear una ubicación para una nueva carretera basada en los patrones de tráfico. Los datos en vivo poseían un problema para analizar los datos de tráfico debido a que se utilizaban cuentas de tráfico agregado. Seleccionaron NiFi para la integración de datos en tiempo real porque influencia la capacidad de ingerir, filtrar y almacenar datos en movimiento. Observe cómo su equipo utilizó NiFi para obtener una mayor comprensión de los patrones de tráfico y decidir la ubicación para la nueva carretera.

This tutorial will go through the introduction of Apache HBase and Apache Phoenix along with the new Backup and Restore utility in HBase that has been introduced in HDP 2.5. Enjoy HADOOPING!!

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

In this tutorial, we will load and review data for a fictitious web retail store in what has become an established use case for Hadoop: deriving insights from large data sources such as web logs.

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

Si tiene errores para completar este tutorial. Por favor, pregunte o notifíquenos a través de la conexión de comunidad de Hortonworks. Este es el segundo tutorial para pemitirle, como desarrollador de Java, aprender sobre el efecto cascada y la plataforma de datos de Hortonwroks (HDP). Otros tutoriales son: Recuento de palabras con efecto cascada en HDP 2.3 Sandbox, Análisis de registro con efecto cascada en HDP [...]

Aprenda cómo utilizar el patrón de efecto cascada para migrar rápidamente los modelos predictivos (PMML) desde SAS, R, MicroStrategy a Hadoop y desplegarlos a escala.

Introduction Hive LLAP combines persistent query servers and intelligent in-memory caching to deliver blazing-fast SQL queries without sacrificing the scalability Hive and Hadoop are known for. This tutorial will show you how to try LLAP on your HDP Sandbox and experience its interactive performance firsthand using a BI tool of your choice (Tableau will be […]

Introduction Apache HBase is a NoSQL database in the Hadoop eco-system. Many business intelligence tool and data analytic tools lack the ability to work with HBase data directly. Apache Phoenix enables you to interact with HBase using SQL. In HDP 2.5, we have introduced support for ODBC drivers. With this, you can connect any ODBC […]

Cómo utilizar Apache Storm para procesar la retransmisión en tiempo real de los datos en Hadoop con la plataforma de datos de Hortonworks.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

En este tutorial aprenderemos a ejecutar Solr en Hadoop con el índice (archivos de dato solr) almacenados en HDF y a utilizar un mapa para reducir los trabajos a archivos de índice.

Utilice Apache Falcon para definir un canal de datos de final y una política para Hadoop y una plataforma de datos 2.1 de Hortonworks.

Standard SQL provides ACID operations through INSERT, UPDATE, DELETE, transactions, and the more recent MERGE operations. These have proven to be robust and flexible enough for most workloads. Hive offers INSERT, UPDATE and DELETE, with more of capabilities on the roadmap.

En este tutorial para desarrolladores de Hadoop, exploraremos los conceptos clave de Apeche Hadoop y examinaremos el proceso de escritura de un programa MapReduce. Descargar e instalar el Sandbox más actualizado de Hortonworks, aprender las características de Sandbox de Hortonworks. Esquema de Hadoop. Paso 1: Explorar los conceptos clave de Apache Hadoop 1.1 ¿Qué es MapReduce? 1.2 [...]

Real World Examples

Un requisito muy común de muchos clientes es la capacidad de indexar texto en archivos de imagen; por ejemplo, texto en archivos escaneados PNG. En este tutorial, vamos a analizar cómo hacerlo con SOLR. Descargue Sandbox de Hortonworks. Complete el aprendizaje de Sandobx HDP. Guía paso a paso [...]

Apache Falcon simplifica la configuración del movimiento de los datos con: replicación, gestión del ciclo de vida, linaje y trazabilidad. Esto proporciona una consistencia gobernable de los datos a través de los componentes de Hadoop. En este tutorial pasaremos por un escenario donde los datos de correo electrónico se procesan en múltiples clústeres HDP 2.2 en el país, y se realizan copias de seguridad cada hora en la nube.

Learn to ingest the real-time data from car sensors with NiFi and send it to Hadoop. Use Apache Kafka for capturing that data in between NiFi and Storm for scalability and reliability. Deploy a storm topology that pulls the data from Kafka and performs complex transformations to combine geolocation data from trucks with sensor data from trucks and roads. Once all sub projects are completed, deploy the driver monitor demo web application to see driver behavior, predictions and drools data in 3 different map visualizations.

How do you improve the chances that your online customers will complete a purchase? Hadoop makes it easier to analyze and then change how visitors behave on your website. Here you can see how an online retailer optimized buying paths to reduce bounce rates and improve conversions. HDP can help you capture and refine website clickstream data to exceed your company’s e-commerce goals. The tutorial that comes with this video describes how to refine raw clickstream data using HDP.

Security breaches happen. And when they do, server log analysis helps you identify the threat and then protect yourself better in the future. See how Hadoop takes server-log analysis to the next level by speeding forensics, retaining log data for longer and demonstrating compliance with IT policies. The tutorial that comes with this video describes how to refine raw server log data using HDP.

With Hadoop, you can mine Twitter, Facebook and other social media conversations to analyze customer sentiment about you and your competition. With more social Big Data, you can make more targeted, real-time, decisions. The tutorial that comes with this video describes how to refine raw Twitter data using HDP.

Machines know things. Sensors stream low-cost, always-on data. Hadoop makes it easier for you to store and refine that data and identify meaningful patterns, providing you with the insight to make proactive business decisions using predictive analytics. See how Hadoop can be used to analyze heating, ventilation and air conditioning data to maintain ideal office temperatures and minimize expenses

RADAR es una solución de software para minoristas, construido utilizando herramientas ITC (NLP y motor de análisis de sentimientos) y utiliza las tecnologías Hadoop en ...

H20 es una solución de memoria de código abierto de 0xdata para el análisis predictivo de los macrodatos. En este motor de matemáticas y aprendizaje de máquina que ofrece una distribución y paralelismo a algoritmos potentes que le permiten realizar mejores predicciones y modelos fiables más rápido. Con APIs familiares como R y JSON, así como [...]

Administración Hadoop

Empiece a utilizar la administración Hadoop. Estos tutoriales están diseñados para facilitar su aprendizaje de Hadoop:

Operations

Introduction The Azure cloud infrastructure has become a common place for users to deploy virtual machines on the cloud due to its flexibility, ease of deployment, and cost benefits. Microsoft has expanded Azure to include a marketplace with thousands of certified, open source, and community software applications and developer services, pre-configured for Microsoft Azure. This […]

Introduction The Hortonworks Sandbox running on Azure requires opening ports a bit differently than when the sandbox is running locally on Virtualbox or Docker. We’ll walk through how to open a port in Azure so that outside connections make their way into the sandbox, which is a Docker container inside an Azure virtual machine. Note: […]

Apache Falcon es un marco para simplificar el procesamiento de los datos y le gestión de los clústeres Hadoop. Hace que sea mucho más fácil cargar nuevos flujos de datos, con soporte para la gestión tardía de los datos y las políticas de reintento. Le permite definir fácilmente las relaciones entre varios datos y procesar los elementos e integrarlos con metascore/catálogo como Hive/Catalog. Finalmente [...]

Apache Falcon es un marco para simplificar el procesamiento de los datos y le gestión de los clústeres Hadoop. Proporciona servicios de gestión como retención, replicación a través de los clústeres, archivivación, etc. Hace que sea mucho más fácil cargar nuevos flujos de datos, con soporte para la gestión tardía de los datos y las políticas de reintento. Le permite definir fácilmente relaciones entre [...]

Introduction In this tutorial, we will explore how to quickly and easily deploy Apache Hadoop with Apache Ambari. We will spin up our own VM with Vagrant and Apache Ambari. Vagrant is very popular with developers as it lets one mirror the production environment in a VM while staying with all the IDEs and tools in the comfort […]

Apache Falcon es un marco para simplificar el procesamiento de los datos y le gestión de los clústeres Hadoop. Hace que sea mucho más fácil cargar nuevos flujos de datos, con soporte para la gestión tardía de los datos y las políticas de reintento. Le permite definir fácilmente las relaciones entre varios datos y procesar los elementos e integrarlos con metascore/catálogo como Hive/Catalog. Finalmente [...]

Introduction In this tutorial we are going to explore how we can configure YARN Capacity Scheduler from Ambari. YARN’s Capacity Scheduler is designed to run Hadoop applications in a shared, multi-tenant cluster while maximizing the throughput and the utilization of the cluster. Traditionally each organization has it own private set of compute resources that have […]

Apache Hadoop clusters grow and change with use. Maybe you used Apache Ambari to build your initial cluster with a base set of Hadoop services targeting known use cases and now you want to add other services for new use cases. Or you may just need to expand the storage and processing capacity of the […]

Hace tiempo, introducimos la capacidad de crear instantáneas para proteger los conjuntos de datos de las empresas de los usuarios o errores de aplicación. Las instantáneas HDFS son copias de lectura del sistema de archivos. Se pueden tomar instantáneas de un subárbol del sistema de archivo o todo el sistema de archivo y son: performantes y fiables: la creación de instantáneas es atómica y [...]

Este tutorial repasa la instalación y configuración del driver ODBC de Hortonworks en Windows 7.

Real World Examples

Introduction This tutorial is aimed for users who do not have much experience in using the Sandbox. We will install and explore the Sandbox on virtual machine and cloud environments. We will also navigate the Ambari user interface. Let’s begin our Hadoop journey. Prerequisites Downloaded and Installed Hortonworks Sandbox Allow yourself around one hour to […]

Security

En este tutorial exploraremos cómo puede utilizar políticas en Seguridad avanzada HDP para proteger los data lake de su empresa y auditar el acceso por los usuarios a los recursos en HDFS Hive y HBase desde una Consola de administración de seguridad HDP.

Apache Ranger ofrece un enfoque comprensivo a la seguridad de un clúster de Hadoop. Proporciona una administración de política de seguridad central a lo largo de los requisitos de autorización de seguridad, contabilidad y protección de datos de la empresa. Apache Ranger ya extiende las características de línea base de aplicación coordinada en las cargas de trabajo de Hadoop desde lotes, SQL interactivo y tiempo real en Hadoop. En este tutorial [...]

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Protegrity Avatar™ para Hortonworks® extiende las capacidades de la seguridad nativa HDP con la tokenización de Protegrity Vaultless (PVT), encriptación extendida HDFS y el admnistrador de seguridad de empresas Protegrity, para la política de protección de datos, gestión clave y autidoría. En el accesorio complementario y el tutorial de Avatar Protegrity para Sandbox de Hortonwoks, aprenderá a: proteger y desproteger los datos a nivel de campo utilizando la política basada en [...]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

Introduction In this tutorial we will walk through the process of Configuring Apache Knox and LDAP services on HDP Sandbox Run a MapReduce Program using Apache Knox Gateway Server Prerequisites Download Hortonworks 2.5 Sandbox. Complete the Learning the Ropes of the Hortonworks Sandbox tutorial, you will need it for logging into Ambari. Outline Concepts 1: […]

Introduction HDP 2.5 ships with Apache Knox 0.6.0. This release of Apache Knox supports WebHDFS, WebHCAT, Oozie, Hive, and HBase REST APIs. Apache Hive is a popular component used for SQL access to Hadoop, and the Hive Server 2 with Thrift supports JDBC access over HTTP. The following steps show the configuration to enable a […]

Asegurar cualquier sistema requiere que implemente capas de protección.  Las listas de control de acceso (ACL) se aplican típicamente a datos para restringir el acceso a los datos a las entidades aprobadas. La aplicación de ACL en todas las capas de acceso para los datos es crítico para asegurar un sistema. Las capas para Hadoop están representadas en este diagrama y en este [...]

Seguridad y gobernanza

Introduction Hortonworks has recently announced the integration of Apache Atlas and Apache Ranger, and introduced the concept of tag or classification based policies. Enterprises can classify data in Apache Atlas and use the classification to build security policies in Apache Ranger. This tutorial walks through an example of tagging data in Atlas and building a […]

Introduction Hortonworks introduced Apache Atlas as part of the Data Governance Initiative, and has continued to deliver on the vision for open source solution for centralized metadata store, data classification, data lifecycle management and centralized security. Atlas is now offering, as a tech preview, cross component lineage functionality, delivering a complete view of data movement […]

Hadoop para científicos de datos y analistas

Empiece con el análisis de datos en Hadoop. Estos tutoriales están diseñados para ayudarle a obtener lo máximo de los datos con Hadoop:

Desde nuestros socios

JReport es una herramienta de informes Bi integrada que puede extraer fácilmente y visualizar datos desde la plataforma de datos 2.3 de Hortonwroks utilizando el driver JDBC de Apache Hive. Puede crear informes, paneles y análisis de datos que pueden integrarse en sus propias aplicaciones. En este tutorial vamos a seguir los siguientes pasos para [...]

Pivotal HAWQ proporciona un apoyo fuerte para las consultas analíticas SQL de baja latencia, acompañada de capacidades de aprendizaje de máquina paralelas en la plataforma de datos de Hortonworks (HDP). HAWQ es el SQL líder mundial en la herramienta Hadoop. Proporciona el dialecto SQL más rico con una biblioteca de datos científicos llamada MADlib en tiempos de respuesta de milisegundos. HAWQ permite el análisis basado en el descubrimiento de [...]

Introduction to Data Analysis with Hadoop

Introduction Hadoop has always been associated with BigData, yet the perception is it’s only suitable for high latency, high throughput queries. With the contribution of the community, you can use Hadoop interactively for data exploration and visualization. In this tutorial you’ll learn how to analyze large datasets using Apache Hive LLAP on Amazon Web Services […]

Introduction R is a popular tool for statistics and data analysis. It has rich visualization capabilities and a large collection of libraries that have been developed and maintained by the R developer community. One drawback to R is that it’s designed to run on in-memory data, which makes it unsuitable for large datasets. Spark is […]

This Hadoop tutorial shows how to Process Data with Hive using a set of driver data statistics.

This Hadoop tutorial shows how to Process Data with Apache Pig using a set of driver data statistics.

How to use Apache Tez and Apache Hive for Interactive Query with Hadoop and Hortonworks Data Platform 2.5

Este tutorial repasa la instalación y configuración del driver ODBC de Hortonworks en Windows 7.

Este tutorial de Hadoop le permitirá obtener un conocimiento funcional de Pig y experimentar creando scripts en Pig para realizar operaciones y tareas esenciales.

This Hadoop tutorial shows how to use HCatalog, Pig and Hive to load and process data using a driver data statistics.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

En este tutorial aprenderá cómo conectar Sandbox a Telend para construir datos de prueba rápidamente para su ambiente Hadoop.

En este tutorial, se introducirá al usuario la Revolution R Enterprise y a trabajar con ella con Sandbox de Hortonworks. Se extraerá un archivo de datos de Sandbox utilizando ODBC y luego se analizará utilizando las funciones de R dentro de la Revolution R Enterprise.

Bienvenido a los tutoriales de QlikView (Herramientas de descubrimiento de negocios) desarrollados por Qlik™. El tutorial está diseñada para ayudarle a conectar con QlikView en minutos, para acceder a los datos de Sandbox Hortonworks o la plataforma de datos de Hortonworks (HDP). QlikView le permitirá obtener un análisis personalizado y descubrir las percepciones en los datos que residen en Sandbox [...]

Real World Examples

How do you improve the chances that your online customers will complete a purchase? Hadoop makes it easier to analyze and then change how visitors behave on your website. Here you can see how an online retailer optimized buying paths to reduce bounce rates and improve conversions. HDP can help you capture and refine website clickstream data to exceed your company’s e-commerce goals. The tutorial that comes with this video describes how to refine raw clickstream data using HDP.

Security breaches happen. And when they do, server log analysis helps you identify the threat and then protect yourself better in the future. See how Hadoop takes server-log analysis to the next level by speeding forensics, retaining log data for longer and demonstrating compliance with IT policies. The tutorial that comes with this video describes how to refine raw server log data using HDP.

With Hadoop, you can mine Twitter, Facebook and other social media conversations to analyze customer sentiment about you and your competition. With more social Big Data, you can make more targeted, real-time, decisions. The tutorial that comes with this video describes how to refine raw Twitter data using HDP.

Machines know things. Sensors stream low-cost, always-on data. Hadoop makes it easier for you to store and refine that data and identify meaningful patterns, providing you with the insight to make proactive business decisions using predictive analytics. See how Hadoop can be used to analyze heating, ventilation and air conditioning data to maintain ideal office temperatures and minimize expenses

RADAR es una solución de software para minoristas, construido utilizando herramientas ITC (NLP y motor de análisis de sentimientos) y utiliza las tecnologías Hadoop en ...

H20 es una solución de memoria de código abierto de 0xdata para el análisis predictivo de los macrodatos. En este motor de matemáticas y aprendizaje de máquina que ofrece una distribución y paralelismo a algoritmos potentes que le permiten realizar mejores predicciones y modelos fiables más rápido. Con APIs familiares como R y JSON, así como [...]

Guías de integración de los socios

Este tutorial ilustra los puntos clave de integración con aplicaciones de socios.

En este tutorial aprenderemos cómo hacer una vista de 360 grados de los clientes de las tiendas minoristas utilizando el Datameer Playground, que está construido en Sandbox de Hortonworks.

En este tutorial aprenderá como ejecutar ETL y construir trabajos MapReduce dentro de Sandbox de Hortonworks.

En este tutorial aprenderá cómo conectar Sandbox a Telend para construir datos de prueba rápidamente para su ambiente Hadoop.

Aprenda cómo utilizar el patrón de efecto cascada para migrar rápidamente los modelos predictivos (PMML) desde SAS, R, MicroStrategy a Hadoop y desplegarlos a escala.

Aprenda a configurar BIRT (Herramientas de inteligencia e informe de negocios) para acceder a los datos desde Sandbox de Hortonworks. BIRT es utilizado por más de 2,5 millones de desarrolladores para obtener vistas personalizadas rápidamente y analíticas en las aplicaciones de Java / J2EE

Conecte Sandbox 2.0 de Hortonworks dcon la Plataforma de datos 2.0 de Hortonworks a Hunk™: Analítica Splunk para Hadoop. Hunk ofrece una plataforma integrada para explorar rápidamente, analizar y visualizar los datos que residen en Hadoop.

Aprenda a configurar la cartera de configuración SAP de los productos (SQL Anywhere, Sybase IQ, Objetos de negocios BI, HANA y Lumira) con Sandbox de Hortonworks para aprovechar los macrodatos en la velocidad de negocios.

MicroStrategy utiliza Apache Hive (a través de una conexión ODBC) como el estándar para el acceso SQL en Hadoop. Aquí se ilustra cómo establecer una conexión de MicroStrategy a Hadoop y Sandbox de Hortonworks.

En este tutorial, se introducirá al usuario la Revolution R Enterprise y a trabajar con ella con Sandbox de Hortonworks. Se extraerá un archivo de datos de Sandbox utilizando ODBC y luego se analizará utilizando las funciones de R dentro de la Revolution R Enterprise.

Learn how to visualize data using Microsoft BI and HDP with 10 years of raw stock ticker data from NYSE.

Bienvenido a los tutoriales de QlikView (Herramientas de descubrimiento de negocios) desarrollados por Qlik™. El tutorial está diseñada para ayudarle a conectar con QlikView en minutos, para acceder a los datos de Sandbox Hortonworks o la plataforma de datos de Hortonworks (HDP). QlikView le permitirá obtener un análisis personalizado y descubrir las percepciones en los datos que residen en Sandbox [...]

how to get started with Cascading and Hortonworks Data Platform using the Word Count Example.

H20 es una solución de memoria de código abierto de 0xdata para el análisis predictivo de los macrodatos. En este motor de matemáticas y aprendizaje de máquina que ofrece una distribución y paralelismo a algoritmos potentes que le permiten realizar mejores predicciones y modelos fiables más rápido. Con APIs familiares como R y JSON, así como [...]

RADAR es una solución de software para minoristas, construido utilizando herramientas ITC (NLP y motor de análisis de sentimientos) y utiliza las tecnologías Hadoop en ...

En este tutorial analizaremos la carga y el análisis de datos gráficos con Sqrrl y HDP. Sqrrl acaba de anunciar la disponibilidad del último Test Drive VM Sqrrl en asociación con Sandbox de Hortonworks, ejecutando HDP 2.1. Esto da a los usuarios una manera sencilla de probar las características con Sqrrl sin necesitar [...]

This use case is the sentiment analysis and sales analysis with Hadoop and MySQL. It uses one Hortonworks Data Platform VM for the twitter sentiment data and one MySQL database for the sales
data.

Protegrity Avatar™ para Hortonworks® extiende las capacidades de la seguridad nativa HDP con la tokenización de Protegrity Vaultless (PVT), encriptación extendida HDFS y el admnistrador de seguridad de empresas Protegrity, para la política de protección de datos, gestión clave y autidoría. En el accesorio complementario y el tutorial de Avatar Protegrity para Sandbox de Hortonwoks, aprenderá a: proteger y desproteger los datos a nivel de campo utilizando la política basada en [...]

Download the turn-key Waterline Data Sandbox preloaded with HDP, Waterline Data Inventory and sample data with tutorials in one package. Waterline Data Inventory enables users of Hadoop to find, understand, and govern data in their data lake. How do you get the Waterline Data advantage? It’s a combination of automated profiling and metadata discovery, and […]

The hosted Hortonworks Sandbox from Bit Refinery provides an easy way to experience and learn Hadoop with ease. All the tutorials available from HDP work just as if you were running a localized version of the Sandbox. Here is how our “flavor” of Hadoop interacts with the Hortonworks platform: alt text Our new tutorial will […]

Hadoop is fast emerging as a mainstay in enterprise data architectures. To meet the increasing demands of business owners and resource constraints, IT teams are challenged to provide an enterprise grade cluster that can be consistently and reliably deployed. The complexities of the varied Hadoop services and their requirements make it more onerous and time […]