Cursos de Big Data

Cursos de Big Data

Big Data es un término que se refiere a soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrollado inicialmente por Google, estas soluciones han evolucionado e inspirado otros proyectos, de los cuales muchos están disponibles como código abierto. Según los informes de Gartner, Big Data es el próximo gran paso en TI justo después del Cloud Computing y será una tendencia líder en los próximos años.
Los cursos locales dirigidos por instructor en vivo de capacitación en Big Data comienzan con una introducción a conceptos elementales, luego avanzan hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de Datos. Las herramientas y la infraestructura para habilitar el almacenamiento de Big Data, el Procesamiento Distribuido y la Escalabilidad se discuten, comparan e implementan en sesiones demostrativas de práctica. La capacitación en Big Data está disponible en dos modalidades: "presencial en vivo" y "remota en vivo"; la primera se puede llevar a cabo localmente en las instalaciones del cliente en Guatemala o en los centros de capacitación corporativa de NobleProg en Guatemala, la segunda se lleva a cabo a través de un escritorio remoto interactivo.

NobleProg -- The World's Local Trainer Provider

Testimonios

★★★★★
★★★★★

Algunos de nuestros clientes

Programas de los cursos Big Data

Nombre del Curso
Duración
Descripción General
Nombre del Curso
Duración
Descripción General
35 horas
Descripción General
Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que los negocios se llevan a cabo en muchas industrias, incluyendo el gobierno. Los índices de generación de gobierno y de archivos digitales están aumentando debido al rápido crecimiento de dispositivos y aplicaciones móviles, sensores y dispositivos inteligentes, soluciones de cloud computing y portales orientados a los ciudadanos. A medida que la información digital se expande y se vuelve más compleja, la gestión de la información, el procesamiento, el almacenamiento, la seguridad y la disposición también se vuelven más complejos. Las nuevas herramientas de captura, búsqueda, descubrimiento y análisis están ayudando a las organizaciones a obtener información sobre sus datos no estructurados. El mercado gubernamental está en un punto de inflexión, al darse cuenta de que la información es un activo estratégico y el gobierno necesita proteger, aprovechar y analizar información estructurada y no estructurada para servir mejor y cumplir con los requisitos de la misión. A medida que los líderes del gobierno se esfuerzan por evolucionar las organizaciones impulsadas por datos para cumplir con éxito la misión, están sentando las bases para correlacionar dependencias a través de eventos, personas, procesos e información.

Las soluciones gubernamentales de alto valor se crearán a partir de un mashup de las tecnologías más perjudiciales:

- Dispositivos y aplicaciones móviles
- Servicios en la nube
- Tecnologías de redes sociales y redes
- Big Data y análisis

IDC predice que para el año 2020, la industria de TI alcanzará los $ 5 billones, aproximadamente $ 1.7 trillones más que hoy, y que el 80% del crecimiento de la industria será impulsado por estas tecnologías de la 3ª Plataforma. A largo plazo, estas tecnologías serán herramientas clave para hacer frente a la complejidad del aumento de la información digital. Big Data es una de las soluciones inteligentes de la industria y permite al gobierno tomar mejores decisiones tomando medidas basadas en patrones revelados al analizar grandes volúmenes de datos relacionados y no relacionados, estructurados y no estructurados.

Pero el logro de estas hazañas lleva mucho más que la simple acumulación de cantidades masivas de datos. "Haciendo sentido de estos volúmenes de Big Datarequires herramientas de vanguardia y" tecnologías que pueden analizar y extraer conocimiento útil de las corrientes de información vasta y diversa ", Tom Kalil y Fen Zhao de la Oficina de la Casa Blanca de Política Científica y Tecnológica escribió en un post en el blog de OSTP.

La Casa Blanca dio un paso hacia ayudar a las agencias a encontrar estas tecnologías cuando estableció la Iniciativa Nacional de Investigación y Desarrollo de Grandes Datos en 2012. La iniciativa incluyó más de $ 200 millones para aprovechar al máximo la explosión de Big Data y las herramientas necesarias para analizarla .

Los desafíos que plantea Big Data son casi tan desalentadores como su promesa es alentadora. El almacenamiento eficiente de los datos es uno de estos desafíos. Como siempre, los presupuestos son ajustados, por lo que las agencias deben minimizar el precio por megabyte de almacenamiento y mantener los datos de fácil acceso para que los usuarios puedan obtenerlo cuando lo deseen y cómo lo necesitan. Copia de seguridad de grandes cantidades de datos aumenta el reto.

Otro gran desafío es analizar los datos de manera eficaz. Muchas agencias emplean herramientas comerciales que les permiten tamizar las montañas de datos, detectando tendencias que pueden ayudarles a operar de manera más eficiente. (Un estudio reciente de MeriTalk encontró que los ejecutivos federales de TI piensan que Big Data podría ayudar a las agencias a ahorrar más de 500.000 millones de dólares mientras cumplen los objetivos de la misión).

Las herramientas de Big Data desarrolladas a medida también están permitiendo a las agencias abordar la necesidad de analizar sus datos. Por ejemplo, el Grupo de Análisis de Datos Computacionales del Laboratorio Nacional de Oak Ridge ha puesto a disposición de otras agencias su sistema de análisis de datos Piranha. El sistema ha ayudado a los investigadores médicos a encontrar un vínculo que puede alertar a los médicos sobre los aneurismas de la aorta antes de que hagan huelga. También se utiliza para tareas más mundanas, tales como tamizar a través de currículos para conectar candidatos de trabajo con los gerentes de contratación.
35 horas
Descripción General
Los proveedores de servicios de comunicaciones (CSP) se enfrentan a presiones para reducir los costos y maximizar el ingreso promedio por usuario (ARPU), a la vez que garantizan una excelente experiencia del cliente, pero los volúmenes de datos siguen creciendo. El tráfico global de datos móviles crecerá a una tasa de crecimiento anual compuesta (CAGR) de 78 por ciento a 2016, alcanzando 10.8 exabytes al mes.

Mientras tanto, los CSP están generando grandes volúmenes de datos, incluyendo registros de detalle de llamadas (CDR), datos de red y datos de clientes. Las empresas que explotan plenamente estos datos ganan una ventaja competitiva. Según una encuesta reciente de The Economist Intelligence Unit, las empresas que utilizan la toma de decisiones orientada a datos disfrutan de un aumento de 5-6% en la productividad. Sin embargo, el 53% de las empresas aprovechan sólo la mitad de sus datos valiosos, y una cuarta parte de los encuestados señaló que gran cantidad de datos útiles no se explotan. Los volúmenes de datos son tan altos que el análisis manual es imposible, y la mayoría de los sistemas de software heredados no pueden mantenerse al día, lo que resulta en que los datos valiosos sean descartados o ignorados.

Con el software de datos grande y escalable de Big Data & Analytics, los CSP pueden extraer todos sus datos para una mejor toma de decisiones en menos tiempo. Diferentes productos y técnicas de Big Data proporcionan una plataforma de software de extremo a extremo para recopilar, preparar, analizar y presentar información sobre grandes datos. Las áreas de aplicación incluyen monitoreo del rendimiento de la red, detección de fraude, detección de churn del cliente y análisis de riesgo de crédito. Big Data & Analytics escala de productos para manejar terabytes de datos, pero la implementación de tales herramientas necesitan un nuevo tipo de sistema de base de datos basado en nube como Hadoop o procesador de cálculo paralelo a gran escala (KPU, etc.)

Este curso de trabajo sobre Big Data BI para Telco cubre todas las nuevas áreas emergentes en las que los CSP están invirtiendo para obtener ganancias de productividad y abrir nuevos flujos de ingresos empresariales. El curso proporcionará una visión completa de 360 ​​grados de Big Data BI en Telco para que los tomadores de decisiones y los gerentes puedan tener una visión muy amplia y completa de las posibilidades de Big Data BI en Telco para la productividad y la ganancia de ingresos.

Objetivos del Curso

El objetivo principal del curso es introducir nuevas técnicas de Business Intelligence de Big Data en 4 sectores de Telecom Business (Marketing / Ventas, Operación de Red, Operación Financiera y Gestión de Relaciones con Clientes). Los estudiantes serán presentados a:

- Introducción a Big Data-lo que es 4Vs (volumen, velocidad, variedad y veracidad) en Big Data-Generation, extracción y gestión desde la perspectiva de Telco
- Cómo el analista de Big Data difiere de los analistas de datos heredados
- Justificación interna de Big Data - perspectiva de Tcco
- Introducción al ecosistema de Hadoop - familiaridad con todas las herramientas de Hadoop como colmena, cerdo, SPARC - cuándo y cómo se utilizan para resolver el problema de Big Data
- Cómo se extraen los datos grandes para analizar para la herramienta de análisis-cómo Business Analysis puede reducir sus puntos de dolor de la recopilación y el análisis de datos a través del enfoque de panel integrado de Hadoop
- Introducción básica de análisis de Insight, análisis de visualización y análisis predictivo para Telco
- Analítica de Churn de clientes y datos grandes: cómo Big Data analítico puede reducir el abandono de clientes y la insatisfacción de los clientes en los estudios de casos de Telco
- Análisis de fracaso de la red y fallos de servicio de Metadatos de red e IPDR
- Análisis financiero-fraude, desperdicio y estimación de ROI de ventas y datos operativos
- Problema de adquisición de clientes: marketing objetivo, segmentación de clientes y ventas cruzadas a partir de datos de ventas
- Introducción y resumen de todos los productos analíticos de Big Data y donde encajan en el espacio analítico de Telco
- Conclusión: cómo tomar un enfoque paso a paso para introducir Big Data Business Intelligence en su organización

Público objetivo

- Operaciones de red, Gerentes Financieros, Gerentes de CRM y altos gerentes de TI en la oficina de Telco CIO.
- Analistas de Negocios en Telco
- Gerentes / analistas de oficina de CFO
- Gerentes operacionales
- Gerentes de control de calidad
21 horas
Descripción General
Audiencia

Si intenta dar sentido a los datos a los que tiene acceso o desea analizar datos no estructurados disponibles en la red (como Twitter, Linked in, etc ...) este curso es para usted.

Está dirigido principalmente a los tomadores de decisiones y las personas que necesitan elegir qué datos vale la pena recopilar y qué vale la pena analizar.

No está dirigido a las personas que configuran la solución, esas personas se beneficiarán de la imagen grande sin embargo.

Modo de entrega

Durante el curso se presentarán a los delegados ejemplos prácticos de la mayoría de las tecnologías de código abierto.

Las conferencias cortas serán seguidas por la presentación y los ejercicios simples por los participantes

Contenido y software utilizados

Todo el software utilizado se actualiza cada vez que se ejecuta el curso, así que verificamos las versiones más recientes posibles.

Cubre el proceso de obtener, formatear, procesar y analizar los datos, para explicar cómo automatizar el proceso de toma de decisiones con el aprendizaje automático.
35 horas
Descripción General
Day 1 - provides a high-level overview of essential Big Data topic areas. The module is divided into a series of sections, each of which is accompanied by a hands-on exercise.

Day 2 - explores a range of topics that relate analysis practices and tools for Big Data environments. It does not get into implementation or programming details, but instead keeps coverage at a conceptual level, focusing on topics that enable participants to develop a comprehensive understanding of the common analysis functions and features offered by Big Data solutions.

Day 3 - provides an overview of the fundamental and essential topic areas relating to Big Data solution platform architecture. It covers Big Data mechanisms required for the development of a Big Data solution platform and architectural options for assembling a data processing platform. Common scenarios are also presented to provide a basic understanding of how a Big Data solution platform is generally used.

Day 4 - builds upon Day 3 by exploring advanced topics relatng to Big Data solution platform architecture. In particular, different architectural layers that make up the Big Data solution platform are introduced and discussed, including data sources, data ingress, data storage, data processing and security.

Day 5 - covers a number of exercises and problems designed to test the delegates ability to apply knowledge of topics covered Day 3 and 4.
21 horas
Descripción General
Big Data es un término que se refiere a las soluciones destinadas a almacenar y procesar grandes conjuntos de datos. Desarrolladas por Go ogle inicialmente, estas soluciones de Big Data han evolucionado e inspirado a otros proyectos similares, muchos de los cuales están disponibles como código abierto. R es un lenguaje de programación popular en la industria financiera.
14 horas
Descripción General
Cuando las tecnologías de almacenamiento tradicionales no manejan la cantidad de datos que necesita almacenar, hay cientos de alternativas Este curso intenta guiar a los participantes sobre las alternativas para almacenar y analizar Big Data y cuáles son sus ventajas y desventajas Este curso se enfoca principalmente en la discusión y presentación de soluciones, aunque hay disponibles ejercicios manuales a pedido .
14 horas
Descripción General
El curso forma parte del conjunto de habilidades de Data Scientist (Dominio: Datos y Tecnología).
35 horas
Descripción General
Big data son conjuntos de datos que son tan voluminosos y complejos que el software de aplicación de procesamiento de datos tradicional es inadecuado para manejarlos. Los grandes desafíos de datos incluyen la captura de datos, el almacenamiento de datos, el análisis de datos, la búsqueda, el intercambio, la transferencia, la visualización, la consulta, la actualización y la privacidad de la información.
35 horas
Descripción General
Los participantes que completen esta capacitación obtendrán una comprensión práctica y real de Big Data y sus tecnologías, metodologías y herramientas relacionadas.

Los participantes tendrán la oportunidad de poner este conocimiento en práctica a través de ejercicios prácticos. La interacción grupal y la retroalimentación del instructor conforman un componente importante de la clase.

El curso comienza con una introducción a los conceptos elementales de Big Data, luego avanza hacia los lenguajes de programación y las metodologías utilizadas para realizar el Análisis de datos. Finalmente, discutimos las herramientas y la infraestructura que permiten el almacenamiento de Big Data, el procesamiento distribuido y la escalabilidad.

Audiencia

Desarrolladores / programadores
Consultores de TI

Formato del curso

Conferencia de parte, discusión en parte, práctica práctica e implementación, quicing ocasional para medir el progreso.
14 horas
Descripción General
Vespa, un motor de procesamiento y publicación de grandes volúmenes de código abierto creado por Yahoo. Se utiliza para responder a las consultas de los usuarios, hacer recomendaciones y proporcionar contenido personalizado y publicidades en tiempo real.

Este entrenamiento en vivo, dirigido por un instructor, presenta los desafíos de servir datos a gran escala y guía a los participantes a través de la creación de una aplicación que puede calcular las respuestas a las solicitudes de los usuarios, en grandes conjuntos de datos en tiempo real.

Al final de esta capacitación, los participantes podrán:

- Use Vespa para calcular rápidamente los datos (almacenar, buscar, clasificar, organizar) en el momento de servir mientras un usuario espera
- Implementar Vespa en aplicaciones existentes que involucran búsqueda de funciones, recomendaciones y personalización
- Integre e implemente Vespa con los sistemas de big data existentes, como Hadoop y Storm.

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Para cumplir con el cumplimiento de los reguladores, los CSP (proveedores de servicios de comunicación) pueden acceder a Big
Análisis de datos que no solo los ayuda a cumplir con el cumplimiento, sino que están dentro del alcance de los mismos
proyecto pueden aumentar la satisfacción del cliente y así reducir el abandono. De hecho desde
el cumplimiento está relacionado con la calidad del servicio vinculada a un contrato, cualquier iniciativa para cumplir
cumplimiento, mejorará la "ventaja competitiva" de los CSP. Por lo tanto, es importante que
Los reguladores deberían ser capaces de asesorar / orientar un conjunto de prácticas analíticas de Big Data para los CSP que
ser de beneficio mutuo entre los reguladores y los CSP.

2 días de curso: 8 módulos, 2 horas cada uno = 16 horas
35 horas
Descripción General
Los avances en las tecnologías y la creciente cantidad de información están transformando la forma en que se lleva a cabo la aplicación de la ley. Los desafíos que plantea Big Data son casi tan desalentadores como la promesa de Big Data. Almacenar datos de manera eficiente es uno de estos desafíos; analizarlo efectivamente es otro.

En esta capacitación en vivo dirigida por un instructor, los participantes aprenderán la mentalidad con la cual abordarán las tecnologías de Big Data, evaluarán su impacto en los procesos y políticas existentes, e implementarán estas tecnologías con el propósito de identificar la actividad delictiva y prevenir el delito. Se examinarán estudios de casos de organizaciones de orden público de todo el mundo para obtener información sobre sus enfoques, desafíos y resultados de adopción.

Al final de esta capacitación, los participantes podrán:

- Combine la tecnología Big Data con procesos tradicionales de recopilación de datos para armar una historia durante una investigación
- Implementar soluciones industriales de almacenamiento y procesamiento de big data para el análisis de datos
- Preparar una propuesta para la adopción de las herramientas y procesos más adecuados para permitir un enfoque basado en datos para la investigación criminal

Audiencia

- Especialistas en aplicación de la ley con experiencia técnica

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
This classroom based training session will explore Big Data. Delegates will have computer based examples and case study exercises to undertake with relevant big data tools
14 horas
Descripción General
Objetivo: Este curso de capacitación tiene como objetivo ayudar a los asistentes a entender por qué Big Data está cambiando nuestras vidas y cómo está alterando la forma en que las empresas nos ven como consumidores. De hecho, los usuarios de Big Data en las empresas encuentran que los grandes datos liberan una gran cantidad de información y conocimientos que se traducen en mayores ganancias, menores costos y menos riesgos. Sin embargo, la desventaja era la frustración a veces cuando se hacía demasiado hincapié en las tecnologías individuales y no se prestaba suficiente atención a los pilares de la gestión de big data.

Los asistentes aprenderán durante este curso cómo administrar los big data utilizando sus tres pilares de integración de datos, control de datos y seguridad de datos para convertir big data en valor comercial real. Diferentes ejercicios realizados en un estudio de caso de la gestión de clientes ayudarán a los asistentes a comprender mejor los procesos subyacentes.
7 horas
Descripción General
This instructor-led, live training in Guatemala (online or onsite) is aimed at technical persons who wish to learn how to implement a machine learning strategy while maximizing the use of big data.

By the end of this training, participants will:

- Understand the evolution and trends for machine learning.
- Know how machine learning is being used across different industries.
- Become familiar with the tools, skills and services available to implement machine learning within an organization.
- Understand how machine learning can be used to enhance data mining and analysis.
- Learn what a data middle backend is, and how it is being used by businesses.
- Understand the role that big data and intelligent applications are playing across industries.
7 horas
Descripción General
This instructor-led, live training in Guatemala (online or onsite) is aimed at software engineers who wish to use Sqoop and Flume for big data.

By the end of this training, participants will be able to:

- Ingest big data with Sqoop and Flume.
- Ingest data from multiple data sources.
- Move data from relational databases to HDFS and Hive.
- Export data from HDFS to a relational database.
28 horas
Descripción General
This instructor-led, live training in Guatemala (online or onsite) is aimed at technical persons who wish to deploy Talend Open Studio for Big Data to simplifying the process of reading and crunching through Big Data.

By the end of this training, participants will be able to:

- Install and configure Talend Open Studio for Big Data.
- Connect with Big Data systems such as Cloudera, HortonWorks, MapR, Amazon EMR and Apache.
- Understand and set up Open Studio's big data components and connectors.
- Configure parameters to automatically generate MapReduce code.
- Use Open Studio's drag-and-drop interface to run Hadoop jobs.
- Prototype big data pipelines.
- Automate big data integration projects.
21 horas
Descripción General
El curso está dedicado a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en entornos de sistemas distribuidos

Objetivo del curso:

Obtención de conocimientos sobre la administración de clúster de Hadoop
35 horas
Descripción General
Audiencia:

El curso está dirigido a especialistas en TI que buscan una solución para almacenar y procesar grandes conjuntos de datos en un entorno de sistema distribuido

Gol:

Conocimiento profundo sobre administración de clúster de Hadoop.
28 horas
Descripción General
Audience:

This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 horas
Descripción General
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. Este curso presentará un desarrollador a varios componentes (HDFS, MapReduce, Pig, Hive y HBase) Hadoop ecosistema.
21 horas
Descripción General
Apache Hadoop es uno de los frameworks más populares para procesar Big Data en clusters de servidores. Este curso profundiza en el manejo de datos en HDFS, Pig, Hive y HBase. Estas técnicas avanzadas de programación serán beneficiosas para los desarrolladores experimentados de Hadoop.

Audiencia: desarrolladores

Duración: tres días

Formato: conferencias (50%) y laboratorios prácticos (50%).
21 horas
Descripción General
Este curso introduce HBase - un almacén NoSQL en la parte superior de Hadoop. El curso está dirigido a desarrolladores que usarán HBase para desarrollar aplicaciones y administradores que administrarán los clústeres de HBase.

Vamos a recorrer un desarrollador a través de la arquitectura de HBase y modelado de datos y desarrollo de aplicaciones en HBase. También discutirá el uso de MapReduce con HBase y algunos temas de administración relacionados con la optimización del rendimiento. El curso es muy práctico con muchos ejercicios de laboratorio.
21 horas
Descripción General
Apache Hadoop es el marco más popular para procesar Big Data en clústeres de servidores. En este curso de tres (opcionalmente, cuatro) días, los asistentes aprenderán sobre los beneficios empresariales y los casos de uso de Hadoop y su ecosistema, cómo planificar el despliegue y crecimiento del clúster, cómo instalar, mantener, monitorear, solucionar y optimizar Hadoop. También practicarán la carga de datos a granel del clúster, se familiarizarán con varias distribuciones de Hadoop y practicarán la instalación y administración de herramientas del ecosistema de Hadoop. El curso finaliza con la discusión sobre la seguridad del clúster con Kerberos.

"... Los materiales estaban muy bien preparados y cubiertos a fondo. El laboratorio fue muy servicial y bien organizado "
- Andrew Nguyen, Ingeniero Principal de Integración DW, Microsoft Online Advertising

Audiencia
Administradores de Hadoop

Formato
Conferencias y laboratorios prácticos, balance aproximado 60% conferencias, 40% laboratorios.
21 horas
Descripción General
Apache Hadoop es el marco más popular para el procesamiento de Big Data. Hadoop proporciona una capacidad analítica rica y profunda, y está haciendo in-roads en el mundo analítico de BI tradicional. Este curso presentará a un analista a los componentes principales del sistema Hadoop eco y sus análisis

Audiencia

Analistas de Negocios

Duración

tres días

Formato

Conferencias y manos sobre laboratorios.
21 horas
Descripción General
Hadoop es el marco de procesamiento de Big Data más popular .
14 horas
Descripción General
Este curso es para

- Desarrolladores

Formato del curso

- Conferencias, práctica práctica, pequeñas pruebas en el camino para medir la comprensión
21 horas
Descripción General
Este curso está dirigido a desarrolladores, arquitectos, científicos de datos o cualquier perfil que requiera acceso a los datos de forma intensiva o regular.

El enfoque principal del curso es la manipulación y transformación de datos.

Entre las herramientas del ecosistema de Hadoop, este curso incluye el uso de Pig y Hive, que se utilizan mucho para la transformación y manipulación de datos.

Esta capacitación también aborda las métricas de rendimiento y la optimización del rendimiento.

El curso es completamente práctico y está marcado por presentaciones de los aspectos teóricos.
14 horas
Descripción General
A medida que más y más proyectos de software y TI migran de procesamiento local y administración de datos a procesamiento distribuido y almacenamiento de big data, los Gerentes de Proyecto encuentran la necesidad de actualizar sus conocimientos y habilidades para comprender los conceptos y prácticas relevantes para proyectos y oportunidades de Big Data.

Este curso presenta a los Project Managers al marco de procesamiento de Big Data más popular: Hadoop.

En esta capacitación dirigida por un instructor, los participantes aprenderán los componentes principales del ecosistema de Hadoop y cómo estas tecnologías pueden usarse para resolver problemas a gran escala. Al aprender estas bases, los participantes también mejorarán su capacidad de comunicarse con los desarrolladores e implementadores de estos sistemas, así como con los científicos y analistas de datos que involucran muchos proyectos de TI.

Audiencia

- Project Managers que desean implementar Hadoop en su infraestructura de TI o desarrollo existente
- Los gerentes de proyectos necesitan comunicarse con equipos multifuncionales que incluyen grandes ingenieros de datos, científicos de datos y analistas de negocios

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica
14 horas
Descripción General
Apache Samza es un marco computacional asíncrono de código abierto casi en tiempo real para el procesamiento de flujos. Utiliza Apache Kafka para mensajería y Apache Hadoop YARN para tolerancia a fallas, aislamiento de procesador, seguridad y administración de recursos.

Esta capacitación en vivo dirigida por un instructor presenta los principios detrás de los sistemas de mensajería y el procesamiento distribuido de flujo, mientras acompaña a los participantes a través de la creación de un proyecto basado en Samza y la ejecución de trabajos.

Al final de esta capacitación, los participantes podrán:

Usa Samza para simplificar el código necesario para producir y consumir mensajes
Desacoplar el manejo de los mensajes de una aplicación
Utilice Samza para implementar cálculos asincrónicos casi en tiempo real
Utilice el procesamiento de flujo para proporcionar un mayor nivel de abstracción en los sistemas de mensajería

Audiencia

- Desarrolladores

Formato del curso

- Conferencia de parte, discusión en parte, ejercicios y práctica práctica

Próximos Cursos Big Data

Cursos de Fin de Semana de Big Data, Capacitación por la Tarde de Big Data, Big Data boot camp, Clases de Big Data, Capacitación de Fin de Semana de Big Data, Cursos por la Tarde de Big Data, Big Data coaching, Instructor de Big Data, Capacitador de Big Data, Big Data con instructor, Cursos de Formación de Big Data, Big Data en sitio, Cursos Privados de Big Data, Clases Particulares de Big Data, Capacitación empresarial de Big Data, Talleres para empresas de Big Data, Cursos en linea de Big Data, Programas de capacitación de Big Data, Clases de Big Data

Promociones

Descuentos en los Cursos

Respetamos la privacidad de su dirección de correo electrónico. No transmitiremos ni venderemos su dirección a otras personas.
En cualquier momento puede cambiar sus preferencias o cancelar su suscripción por completo.

is growing fast!

We are looking to expand our presence in Guatemala!

As a Business Development Manager you will:

  • expand business in Guatemala
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!

Este sitio en otros países / regiones