Reciba actualizaciones recientes de Hortonworks por correo electrónico

Una vez al mes, recibir nuevas ideas, tendencias, información de análisis y conocimiento de macrodatos.

cta

Empezar

nube

¿Está preparado para empezar?

Descargue sandbox

¿Cómo podemos ayudarle?

cerrarBotón de cerrar
cta

Maximizar el valor de datos en movimiento con macrodatos de Internet de las cosas

reproducir video button vídeo

nube ¿Está preparado para empezar?

Descargar HDF
Hortonworks DataFlow (HDF™)

Hortonworks DataFlow (HDF)

Hortonworks DataFlow (HDF) proporciona la única plataforma de extremo a extremo que recolecta, cura, analiza y actúa sobre datos en tiempo real, en las instalaciones o en la nube, con una interfaz visual de arrastrar y soltar. HDF es una solución integrada con Apache Nifi/MiNifi, Apache Kafka, Apache Storm y Druid.

El HDF, plataforma de análisis de datos en tiempo real de retransmisión incluye sistemas de gestión de flujo de datos, procesamiento de retransmisión y servicios empresariales.

Impulsar el futuro de los datos
INICIAR SUSCRIPCIÓN

Plataforma de datos en movimiento HDF

Tres componentes principales de Hortonworks DataFlow

administrador

Una manera fácil, segura y confiable para manejar el flujo de datos 

Recopile y manipule los flujos de macrodatos de Internet de las cosas con seguridad y eficientemente al mismo tiempo que proporciona visibilidad operacional en tiempo real, gestión y control.

administrador

Perspectivas inmediatas y continuas  

Construir aplicaciones analíticas de retransmisión en minutos para capturar perspectivas perecederas en tiempo real sin necesidad de escribir una sola línea de código.

Más información
administrador

Operaciones, seguridad y gobernanza corporativa 

Gestionar los ecosistemas HDF y HDP con panel de gestión integral de aprovisionamiento, seguimiento y gestión.

Más información

Plataforma de recopilación agnóstica independiente integrada de fuente de datos

HDF tiene capacidades de recolección de datos con funciones completas que están retransmitiendo datos agnósticos e integrados con más de 220 procesadores. Los macrodatos de Internet de las cosas se puede recopilar de fuentes dinámicas y distribuidas de diferentes formatos, esquemas, protocolos, velocidades y tamaños y de tipos como máquinas, dispositivos de geolocalización, flujos de clic, archivos, fuentes sociales, archivos de registro y vídeos.

Más información:

  • Cómo la gestión de flujo de datos agnóstica de fuente de datos en tiempo real facilita el movimiento de datos
    Ver vídeo
    Conocer más
    Aprender qué puede hacer HDF para optimizar el análisis de registro desde el límite.Leer más
Recolección de datos potente

RESPUESTA EN TIEMPO REAL A LOS DATOS EN MOVIMIENTO

Con HDF, la recopilación de datos ya no es un proceso tedioso. Puede manejar datos en pleno vuelo con un panel de control visual para ajustar fuentes, unir y dividir retransmisiones y priorizar el flujo de datos. HDF también puede agregar datos contextuales a sus flujos para un análisis y perspectiva más completa. Las rutas de procedencia y auditoría de datos proporcionan cumplimiento y resolución de problemas de seguridad y gobernanza , según sea necesario en tiempo real. Integrado con Apache NiFi, MiNiFi, Kafka y Storm, HDF está listo para el procesamiento de eventos de alto volumen para análisis y acciones inmediatas. Kafka permite diferentes tasas de creación de datos y entrega mientras que Storm proporciona análisis de datos en tiempo real de retransmisión y perspectivas inmediatas a gran escala.

Más información:

  • Como los datos de retransmisión gestionados a través de una interfaz visual en tiempo real de Apache NiFi aumentan la eficacia operativa.
    Ver vídeo
Gestión de flujo de datos en tiempo real

PROTEGER POR COMPLETO DESDE ORIGEN HASTA EL DESTINO 

Enrutamiento y flujo de datos seguros de extremo a extremo desde la fuente hasta el destino, con autorización de usuario discreta y cadena de custodia visual detallada y en tiempo real. Utilice el interfaz de usuario visual de HDF para cifrar datos, enviarlos a Kafka, configurar búferes y gestionar la congestión para que los datos puedan priorizarse dinámicamente y enviarse de forma segura. HDF permite el acceso de datos basado en funciones que permite que las empresas compartan de forma dinámica y segura porciones selectas de datos pertinentes. HDF fácilmente puede implementar gestión de flujos y aplicaciones de retransmisión en un entorno protegido por Kerberos sin demasiado cargo operacional.

Más información:

  • Ver cómo el acceso de datos granular es mejor que el acceso con base en funciones
    Ver vídeo
Seguridad de nivel empresarial

CREAR APLICACIONES DE ANÁLISIS DE RETRANSMISIÓN SIN CÓDIGO

HDF incluye un módulo completo de análisis de retransmisión, Streaming Analytics Manager (SAM), para crear aplicaciones analíticas de retransmisión que realizan correlación de eventos, enriquecimiento de contexto, concordancia con patrones compleja, incorporaciones analíticas y crear alertas/notificaciones cuando se descubren perspectivas. SAM hace que la construcción de analítica de retransmisión sea fácil para los desarrolladores de aplicaciones, DevOps y analistas de negocio para construir, desarrollar, colaborar, analizar, implementar y administrar aplicaciones en minutos sin escribir una sola línea de código. Los analistas usan gráficos preconstruidos para construir rápidamente el análisis y crear cuadros de mando, mientras que DevOps puede administrar y supervisar el rendimiento de aplicaciones de forma inmediata.

Más información:

OPERACIONES MÁS EFICIENTES CON REGISTRO DE ESQUEMA

HDF incluye esquemas de registro, un repositorio de esquema central que permite el análisis de aplicaciones flexible para interactuar con los demás. Esto permite que los usuarios guarden, modifiquen o recuperen esquemas para los datos que necesitan. Esto también permite la conexión fácil de los esquemas de cada dato sin incurrir en cargos adicionales para una mayor eficiencia operacional. Con la gestión de versión de esquemas, los consumidores de datos y productores de datos pueden evolucionar a distintas velocidades. Y, a través de la validación del esquema, se mejora la calidad de los datos. Un registro de esquema central también prevé mayor control de cómo se utilizan los datos. El registro del esquema está integrado con Apache Nifi y HDF Streaming Analytics Manager.

Más información:

QUÉ HAY DE NUEVO EN HDF

Construir análisis en tiempo real más rápido con Streaming Analytics Manager

*

Cree aplicaciones de análisis fácilmente con el paradigma visual de arrastrar y soltar con funciones de análisis desplegables

*

Analice rápidamente con el cuadro de mandos visual enriquecido y un motor de análisis desarrollado por Druid

*

Operar eficientemente con paneles prefabricados de monitoreo de métricas del sistema

Administrar flujos de datos más fácilmente con registro de esquema

*

Eliminar la necesidad de código y adjuntar esquema a cada pieza de información y reducir el gasto operacional

*

Permitir que los consumidores de datos y productores evolucionen a diferentes ritmos con la gestión de versión de esquema

*

Almacenar el esquema de cualquier tipo de entidad o datos de tienda, no solo Kafka

Guía de usuario de HDF

Obtenga las notas de lanzamiento de HDF; guías para usuarios, programadores y para empezar.

Asistencia

El mejor soporte de la industria para grandes volúmenes de datos en las empresas. Conecte con nuestro equipo de expertos para que le ayuden en su proceso.

Formación

Formación del mundo real de expertos en macrodatos Disponible en persona o a pedido cuando usted nos necesita.